轻舟智航侯聪:L3不是过渡方案,是直接跨过去的

4月24日,2026北京车展正式开幕,车展首次采用中国国际展览中心顺义馆与首都国际会展中心双馆联动办展,超 1500 家参展商参与,全球首发新车181台、概念车71台,集中呈现了汽车行业的前沿技术、首发新品与全产业链生态,新能源与智能网联车型成为核心看点。

基于此,新浪汽车特邀各大车企及汽车供应链品牌核心高管莅临新浪汽车高端访谈间,共话智能电动时代的产品突破与行业格局演变。

轻舟智航侯聪:L3不是过渡方案,是直接跨过去的

以下为专访实录:

提问:欢迎侯总来到新浪汽车直播间,向大家介绍一下自己。

侯聪:大家好,我是轻舟智航的联合创始人兼总裁侯聪。

提问:我们知道今年第一季度轻舟有很多事件,包括最初的品牌日,包括上个月也有新的一笔融资进来。从品牌日到现在在此期间轻舟有哪些新的进展和动作?

侯聪:因为这中间有又过去三个多月的时间,实际上有些比较重要的事情是我们判断的物理AI时代即将开启,未来十年一定是物理AI大发展的十年,所以我们积极地将我们整个技术方案升级为可以和物理AI对接的方案,这里面的思考有两方面:

一方面,物理AI的相关技术会有快速的发展,无论是学术界还是工业界一定会有很多成果优先出来,我们必须提前做好准备,有新的成果之后可以为我所用,在架构上需要做好准备。

第二,自动驾驶这个技术实际上也是一种物理AI,只是过去我们不这么叫,现在我们从整个大的方向去看物理AI包括机器人,发现他们有很多共性,我们完全可以把过去车载技术整合成一个跟未来机器人通用的架构,本身转换是非常容易的。

提问:您刚才说到了未来十年物理AI发展会特别快,之前一段时间高端的电动车论坛上也有一些竞品领导提出一些观点,他们提到现在的智驾大模型迭代好像进入了一个瓶颈,无论怎么加参数,效果并没有什么提升,您怎么看这个观点?

侯聪:这就看它做到哪个程度了,我们看到的是行业标杆特斯拉还在一直迭代,虽然现在非常好,但是依然能看到它在一些场景下的能力不足,包括它能不能自主地驶出多层停车场,类似这样的场景依然能力不足。未来我们解决的问题一定是越来越长尾,从用户的感知层面来看可能没有像之前那么明显,但是这个技术依然是迭代的,因为我们最终还是要做L4这样的产品,这个步骤还是要持续下去的。

提问:说到L4,之前也有观点说L3是过渡方案,从L2可以直接进入L4的行业观点表达,您怎么看这个观点?L3是过渡方案还是必经之路?

侯聪:L3不是过渡方案,是直接跨过去的。

提问:还有一个问题,轻舟智航其实是用128 TOPS算力呈现城市NOA技术方案,用小算力实现高算力效果的方案背后做了哪些特别的努力?或者您觉得什么样的技术才能实现这种极致的效率?

侯聪:这里面不仅是说算法选择,还有大量的工程化工作要做。首先我们面临的问题是在有限的算力下,怎么发挥硬件的最大潜能,这个问题有点像早期当年玩的红白机里边,在资源极度受限的情况下可以做出一个超级玛丽这样的游戏,面临的问题是相似的。我们需要从整体的架构上为它做好准备,无论是模块的设计、模型的设计,它们之间相关的关系都要考虑资源有限的前提。比如里面模型的主干选型要用到硬件上效果最好或者效能最高的,比如我们用地平线一定会适配地平线的芯片,找一个效能最高的网络结构,包括我们会从硬件层面上做一些工作,无论是在推理还是CPU优化我们做了大量的工作,有很多工具链都是围绕这个开发的,优化这个事情我们是从架构到执行都在不断地做,能够帮我们在小的算力上实现别人更高算力上才能实现出来的效果。

提问:您觉得现在对于轻舟而言更愿意卷参数还是卷场景?

侯聪:我会更愿意卷体验。

提问:其实就是卷场景,昨天+前天包括其他的合作伙伴也都推出了自己的新产品,大家还是愿意更多地展示参数,今年上半年小龙虾特别火,从而把Mac Mini也带得特别火。在前面地平线的发布会上看到舱驾一体星空,用算力对标Mac Mini,如果咱们也对标Mac Mini的话,单位时间内处理Token数量的对比大概是怎样的关系?

侯聪:这主要还是AI模型在芯片上的处理效率,跟我刚才讲的相关,因为硬件设计肯定有一些它的思考,软件能否把硬件的能力发挥到最大是需要很多相关设计的,做系统的人都很清楚这一点,无论是做操作系统还是应用都要考虑,包括我们做编译器,编译器的作用就是怎么能够把人写的代码,以最高效率执行在硬件上,因为我以前博士就是做编译器的,这是我的老本行,这种系统性思维是非常重要的。你刚才讲的这个对标,因为我想再确认一下Mac Mini是一个跑小龙虾的很好载体。

首先,跑小龙虾不需要推理算法,它是通过远程API访问,只需要在本地对接到远程就可以,本身对算力的要求并不高。但是它要求很高的安全性,因为小龙虾很灵活,如果安全性做不好很容易导致信息泄露,但是Mac Mini的安全管理是做得很好的,而且它的成本很低,功耗很低,确实是很好的一个载体。我相信一定会有更加专用的硬件来实现小龙虾的部署,更高效的硬件。类比过来,我想确认一下你刚才讲的星空和Mac Mini的关系是怎么看的。

提问:我可能看得比较浅层,因为当时在发布会上提到了星空的推理效率是小龙虾的2.4倍,星空的算力大概是650,我们其实算力并没有达到那么高,我能不能直接理解为我们的算力其实不如Mac Mini?

侯聪:不能这么理解,Mac Mini本身不需要任何的推理能力,所有都是在云端发生的,它只是做一个转发。

提问:它也可以部署本地。

侯聪:现在基本没有本地,因为好的模型都是云端服务。

提问:大概能理解了,小龙虾本身在Mac Mini上即使部署本地也都是小算力的模型。

侯聪:对,它只需要提供CPU,甚至不需要任何推理能力。

提问:我想问一下,对轻舟而言咱们有做操作系统吗?

侯聪:没有做操作系统那么复杂的东西,我们有做中间件和底层软件。

提问:现在Vibe Coding特别火,您又是做编辑器出身的,咱们现在轻舟的软件开发用Vibe Coding多吗?

侯聪:这个早就开始用了,已经用了一年多将近两年时间了。

提问:效果怎么样?

侯聪:效果很好,可以极大地提升人效,让人花在编程上的时间大幅降低。当然Vibe Coding是去年的故事,今年的故事叫Agentic Coding或者Agentic AI,实际上今年我们也是大力在公司内部推广用Agent技术去进一步对各项工作进行提效。

提问:Agent相比去年的Vibe Coding区别在哪?

侯聪:现在流行大模型+Harness,大模型能力依然在持续提升,我们看到它在编程领域,在更多其他领域,包括Research领域能力越来越强,但是仅仅只是能力提升还不足以支撑Agent的能力,它需要在周边构建上下文管理能力,让你觉得更智能化的设计,包括你的一些约束条件的设定等等。实际上它能够帮你充分利用好大模型能力,同时让整个系统显得非常智能,就像Agent智能体一样去工作。

提问:轻舟智航带来了大算力方案,对这套方案的期待和规划是什么?

侯聪:我们想实现一个体验更好、能够处理更多复杂场景的城市方案,我们的大算力可以帮我们在里面跑更大的世界模型,它的参数会更大一些,这样它对世界的理解能力一定是更强的。

第二,我们加入了语言能力,VLM、VLA能力,可以帮我们识别和理解强语义场景。

第三,我们对很多参数进行了升级,包括像帧率、图像分辨率、参数量等等,都可以大幅提升复杂场景的体验,这是我们这个产品的一些特点。

提问:刚才提到了帧率的提升,您觉得视觉的输入,帧率和像素哪个更重要?

侯聪:各有各的重要,重要性不一样。帧率一是提高反应速度,二是能提高精度,分辨率更多是远距离的感知能力,再比如对整个场景语义理解进一步提升,因为它的“信息量”更多了,尤其是这种静态信息,多帧率融合并不能带来额外的信息,但是你的分辨率提升可以看到更精细的东西。

提问:他俩的重要性是一样的?

侯聪:在反应速度上来看帧率更重要一些,对感知的能力加强以及对世界理解加强都很重要。

提问:我可以说帧率提高的是下限,像素提高的是上限吗?

侯聪:帧率对反应速度的提高的是下限,上限他们都有贡献。

提问:咱们的大算力是采取舱驾一体还是舱驾分离?

侯聪:我们的方案跟舱驾一体或者舱驾分离没有关系,舱驾一体的话如果说在同一个芯片,我们的系统完全可以部署在芯片上,跟座舱软件可以同时跑,只要把一些资源分配做好就不会有问题。

提问:咱们现在在Robotaxi和Robovan物流上有什么样的发展和布局?

侯聪:Robotaxi做了好几年了,我们的思路肯定是基于L2同时提高安全性实现这么一个产品。我们为什么要做大算力的方案?实际上也是为Robotaxi做一定的准备,因为Robotaxi对安全性要求更高,我们的世界模型或者我们的很多模型能力要做得更好,但同时我们也必须承认它可能需要在这种乘用车的基础上增加一些安全冗余,包括冗余的传感器和软件方案,这是L2不具备的。L4需要更多的传感器和算力来实现这一点,这是我们Robotaxi的方案。

我们今年重点发展的是Robovan方案,这个产品今年有一个拐点,因为需求很明确,产品的成熟度也基本到位了,今年我们会大量地量产这个方案。

提问:咱们刚才提到了世界模型,咱们的世界模型和其他品牌的世界模型,还有端到端方案有什么区别和优势?昨天有头部的供应商企业说强化学习是第一的,他们是实时学习并不是离线学习,咱们怎么看这个观点?

侯聪:这个里面有很多营销的东西,我先不做评判。世界模型我们一般认为它分为线上或者端侧世界模型和云端世界模型。在车端的世界模型更多解决的是对世界的理解,因为我对世界包括整个语义、周围行人车辆的行为模式,包括对于整个世界物理规律上的理解,可以帮助自车规划出更加有效、安全的线路,是通过理解世界帮你做更好规划的一种能力。而离线世界模型目前重点是用来做评测和强化学习,在离线的环境下可以通过世界模型反过来生成传感器输入,让你的系统闭环地跑下来。这样第一可以做评测,第二可以做强化学习,这两个会有一些区别。而离线的世界模型不受算力限制,可以做得很大,在线的世界模型可能要考虑一些算力限制,相对来说会更紧凑一些。

提问:端到端的优劣势呢?

侯聪:实际上它跟端到端是两个范畴的东西,端到端更多强调的是你的技术架构,是不是整体上从输入到最终规划输出,中间是一整套系统。它的整个开发范式看起来像是一个模型,实际上在过程中也不是一个模型,是一个复杂系统。

提问:最后的一个问题交给微博的网友,您用过智搜吗?

侯聪:好像没有用过。

提问:您用微博吗?

侯聪:微博用得比较少。

提问:您后续可以多看一看微博,微博现在的产品叫“智搜”,它可以集成所有微博网友对于各品牌或者所有内容,对大家提出的问题进行聚合回答,也是微博对于AI应用的体现。接下来把问题交给智搜,看看微博网友会提出什么问题。

您好智搜,帮我看看微博网友对于轻舟智航有什么想问的问题,直接列出问题不要总结,谢谢。您可以挑一个想回答的直接回答。

侯聪:好的。有一个问题是说针对10万元级的Air方案,是否支持后续通过OTA升级到支持城市Pro和Max方案?

我们有三个产品Air、Pro和Max,其中Air方案算力上可能OK,但是它的传感器是为高速设计的,它的侧向感知上可能会有限制,升级到城市会有一些安全风险,可能我们不会做升级。但是Pro方案我们会支持城市,而且今年量产了这个方案,我们会持续地OTA,提升它的用户体验。Max的算力高一些,是500TOPS+的方案,也需要做芯片上的升级。

提问:还有想回答的问题吗?智搜也是实时更新的状态,今天上午提出的问题和下午提出的问题会发生一些变化,后续轻舟做一些决策,想了解网友意见的时候可以尝试一下这个产品。

侯聪:好的。有一个对于已搭载轻舟乘风老版方案的车主,这次发布的世界模型算法是否支持旧硬件平台的升级?

首先,之前我们128TOPS方案的话做在线世界模型升级没有问题,离线世界模型是可以赋能所有方案的,我们后续的OTA升级可以通过世界模型的方案,让他们变得更好。

提问:谢谢侯总,今天的采访到这儿结束,感谢您的光临,谢谢。

侯聪:谢谢。

网友点评

    二手车

      查看更多二手车
      还有3个信息需要填写哦~
      底价将以短信的形式发送到您的手机
      个人信息不会泄露给第三方
      获取底价

      热门评论

      用户7001277228 用户7001277228湖南湘潭

      跨越山海就是悬崖深渊

      04-27 21:55

      伙计 伙计河南郑州

      搞不定就跨过去[666]

      04-27 17:10

      更多热门评论
      微博
      微信
      朋友圈
      关闭
      文章
      相关推荐
      取消
      取消

      海报生成中

      请稍后

      ...

      长按上图保存