​文丨魏琳华编丨王一粟2026年的北京车展AI已经不是一个噱头而是无处不在的底层能力。在本场展会上最有看点的是很多品牌都推出融合了Agent和Skills能力的智能座舱将此前Chatbot式的反馈进化成执行复杂任务的整车智能体。用户一句话就能让汽车规划路线、下外卖订单、智驾回家。打通智驾和智舱的AI到底上限有多高阶跃星辰举过这样一个例子“导航里我们一般告诉地图我要去哪里软件会为你导航但有了AI的导航你不需要告诉AI你的目的地只需要讲自己的意图比如去挑一件生日礼物大模型就会根据你的喜好、历史记录去挑选这一切都是需要我们的智能体、多模态大模型作为背后的支撑。”AI车的提升已经不仅仅局限于交互体验的改善。更关键的是AI大模型不仅要上车更要进入整车系统的更底层提升智驾、座舱智能水平的上限。譬如日前千里科技联合阶跃星辰宣布将打造全新的原生智驾模型。这意味着在模型训练的底层阶段开始结合数据、技术和工程优势共同打造一个“为智驾而生”的模型——让AI在智驾模型中的权限更高、从更多智驾数据中学习。这样训练出来的智驾模型才能更理解物理世界的规律从容应对各种突发情况。汽车智能化的下一程正在加速到来。但这一次决定胜负的不是谁的模型更大而是谁的模型能够更懂汽车、更懂物理世界。L4需要什么样的智驾模型当前智驾行业的技术发展已经来到冲刺L3的阶段。用千里科技联席董事长赵明的话说我们现在已经突破了‘好用’的临界点。接下来所有厂商都在全力以赴向L4的目标狂奔。但在“如何通向L4”这件事上赵明给出了自己的观点现阶段不是所有模型都适合成为晋升L4阶段的底座。过往的智驾模型问题就出在了模型训练的方式上。长期以来智驾行业的主流技术路径是先训练一个通用大语言模型再将车端数据“喂”到模型里通过后训练微调的方式打造智驾模型。这样做出来的模型虽然已经足够应付一些简单、标准化场景的问题比如识别红绿灯信号、和车的间距问题但针对一些突发情况它难以根据具体情况给出好的应对策略。为了进一步提升模型的泛化性让智驾模型能够解决更多突发问题。千里科技的答案是引入世界模型体系提供各种海量极限数据训练智驾模型。用赵明的话说各种复杂场景与对物理世界的理解结合才构成了走向L4智驾时代最为合适的方式。原生AI模型的好处在智驾领域已经得到过证明。以VLA模型为例与此前模型不同的是VLA的逻辑本质上是用AI重写底层逻辑。它不仅让AI模型拥有了“看、听、说”一体的能力结合海量驾驶数据学习AI模型的能力放大的同时也能根据数据训练出应对一些复杂场景的方式从而对没有预设过的问题也能给出恰当的应对。阶跃星辰和千里科技的联手为的就是合作训练一个“原生智驾模型”提高智驾模型能力上限这改变了“先做模型再适配”的方式在预训练阶段就同时给到通识数据和智驾数据后训练阶段继续用智驾特训和通用能力加持让模型天然能够应对物理世界中各种复杂命题。具体而言一是大量智驾数据接入训练让AI模型能够提前针对各种复杂情况进行特训从而提升模型本身对非标准场景应对的泛化能力。比如遇到极端天气、交通管制等特殊情况更多时候能够让AI自己做应对比如识别各种障碍、自动采取减速、绕行操作。二是底层模型智能的提升让智驾在响应人的需求时“更聪明”。通过引入阶跃星辰的系列模型比如Agentic模型、多模态模型既能让AI“看”得更清楚又能让AI读懂人的复杂需求。以现场演示的一个场景为例用户要求“回家同时找顺路的花店、蛋糕店购买花和蛋糕”一般AI难以拆解的长难句交给智能体能力更强的AI模型任务的拆分和执行不再是难题。手握高质量基础模型矩阵的阶跃星辰联手智驾模型能力领先的千里科技正在试图联手打开智驾模型的能力上限。模型工程能力打通“GrokFSD”的中国方案在“大模型上车”竞争白热化的2026年国内一部分车企正在通过大模型能力的引入讲出类似GrokFSD的故事。阶跃星辰和千里科技的战略合作从基因上看是冲击中国版GrokFSD 最有可能性的样本除了智能驾驶和智能座舱未来或将继续探索出具身智能系统。两家公司的联合背后站着一位关键人物印奇。同时担任阶跃星辰和千里科技的董事长印奇也在媒体群访环节中回应自己的工作更多关注技术和产品相关的方向两者之间的合作是模型到终端的能力整合。“作为AI创业的老兵我们一直在寻求中国AI的商业闭环。”印奇说“阶跃和千里从我的角度来看是一个最优解阶跃在构建AI模型未来是从车、手机到未来更多的终端的大脑而千里则是大脑的‘容器’车则是高价值的载体。”从能力图谱来看阶跃是大模型公司中少见拥有全模态模型布局的企业。以车企最近密集部署的智能座舱产品为例它需要集感知-识别-交互能力为一体除了在平板上的文字交互外更需要摄像头来识别车辆内部和外部的场景和人物状态通过语音和人对答如流。在这方面阶跃星辰已经通过合作加速把各类模型的能力搬上了车提供最适合Agent场景的各种基座模型。从登顶OpenRouter全球调用榜单的基座模型Step 3.5 Flash到端到端语音模型Step Audio系列都接入极氪8X的超级智能体“超级Eva”都成为了智驾能力的底座技术支撑。基于Step 3.5 Flash“超级Eva”能够听懂人类的模糊意图并拆解复杂任务推动执行。比如当用户说带我去接孩子放学顺便找一家麦当劳5点我要到学校超级Eva自主规划导航路线启动智能辅助驾驶并完成途中订餐、临停取餐、学校门口自动泊车等全链路操作。AI找好满足条件的商场后自动设置好导航路线千里科技则聚焦打造智驾模型提供软硬结合的全栈工程能力快速把智驾方案落地量产。两者联合可以把模型能力真正转成可工程化的车端能力解决“模型很强但上不了车上了车但调不动整车系统”的行业难题并且快速推动模型从研发阶段到量产上车Step 3.5 Flash从全面开源到正式上车只用了40天更早之前双方联手推出业内首个搭载端到端语音模型的Agent OS智能座舱这套方案半年内搭载在吉利银河M9量产。这种速度验证了这一强耦合模式的可行性。结语让“大模型上车”只是一个开始更重要的是量产规模还会为模型训练提供大量真实数据形成数据飞轮持续反哺智驾模型本身的迭代效果形成“越跑越快”的正向循环。在行业智驾能力向着L4进阶的情况下谁能让这个飞轮先转起来、转得更快谁就掌握了通往终局的“加速度”。