从“能用”迈向“敢用”:第二代视觉—语言—动作大模型加速智能驾驶体验升级

当前,智能驾驶技术发展的关键难题,是如何赢得用户信任。数据显示,超过60%的消费者对完全交由智能驾驶仍较为谨慎,主要担心系统突发情况下的应对能力。问题的根源在于,传统模块化系统存在信息传递链路长、响应滞后、决策效率不足等短板。 针对这个行业痛点,国内车企推出的第二代VLA系统实现了突破。该系统将视觉感知、语言理解与动作执行整合为一体,显著减少信息处理环节。与依赖云端计算的方案不同,它搭载三颗自主研发的高性能芯片,算力达到2250TOPS,即便在网络信号不佳的区域也能稳定运行。 从技术特点来看,新系统有三上优势:一是图像处理速度提升75%,能更快识别复杂路况;二是采用独立图像处理架构,在夜间、雨雾等恶劣条件下仍能保持稳定表现;三是环境理解能力更强,可识别非常规车辆并做出合理应对。这些改进使系统反应更接近人类驾驶员的判断水平。 业内专家指出,这一突破的价值不止在性能提升,更反映了智能驾驶路线的变化。相比单纯依赖视觉识别的方案,VLA系统更强调对环境的深层理解,让机器更接近“读懂”道路状况的能力。这一路线差异,为我国智能驾驶产业形成竞争优势提供了空间。 从市场分析看,随着消费者对智能驾驶的接受度提升,预计到2025年,搭载高级智能驾驶系统的车型将占全球新车销量的30%以上。本次技术进展有望加速这一过程,推动智能驾驶从辅助功能走向更核心的用车体验。多家车企已表示将加大对应的研发投入,行业竞争焦点也在从硬件堆叠转向体验与安全能力的提升。

智能驾驶进入下一阶段——竞争不只是“会不会开”——更是“能不能让人放心”。随着端到端架构、自研算力与离线能力等路径逐步成熟,用户信任将更多来自长期稳定的道路表现和可验证的安全体系。让技术回到出行本质——降低风险、减少疲劳、提升效率——才是智能驾驶实现规模化普及的真正门槛与方向。