在2021年的时候,理想汽车就开始做自己的辅助驾驶了,到了2024年,他们搞了个端到端加上VLM的双系统架构,马上就要在新车型上装了。等到2025年,他们就把空间理解、语言理解还有行动决策都整合到了一个模型里,搞出了个VLA司机大模型。这套系统在2025年的车交付时就用上了,效果特别好。数据显示,到年底这时候,每个月能有80%的车主都在用它发指令,发了超过1225万次呢。 去年春节的时候,用理想汽车辅助驾驶跑的路加起来有2.5亿公里,用户用VLA指令的次数也达到了130.3万次。这些数字不光说明这车能跑,也说明技术靠得住。接下来就是重点了,他们在今年NVIDIA GTC大会上推出了下一代的自动驾驶基础模型MindVLA-o1。这可是个大动作,不光是为了自己开车用,还能给其他机器人或者应用程序用。 MindVLA-o1用了五个核心技术创新,把对3D空间的理解、多模态的思考、行为生成都统一起来了。最牛的是它用了闭环强化学习(Closed-loop RL),再加上软硬件协同设计(Hardware–Software Co-Design),能在复杂的现实环境里快速做决定和动作。这种统一架构的好处就是让系统能跨场景、跨任务地干活。 詹锟说过,自动驾驶只是物理AI的第一步,以后基础模型会把具身智能再推一把。这个设计让MindVLA-o1具备了跨场景、跨任务的理解能力,为实现更高水平的智能驾驶打下了基础。以后随着更多新东西加进来,MindVLA-o1不光能让车自己开得更好,还能扩展到更广泛的智能应用场景里去。