英伟达发布新一代AI超级计算平台 开源自动驾驶模型加速产业变革

美国当地时间1月5日,全球AI芯片领军企业英伟达在国际消费电子产品展览会上举办新年首场发布会,展示了其在人工智能领域的最新进展。

这是该公司五年来首次在CES上不发布新款GPU产品,但所公布的战略调整和技术突破仍引发业界广泛关注。

英伟达CEO黄仁勋在演讲中系统阐述了对AI发展趋势的新认识。

他指出,当前AI正在演变为一个跨模态、跨模型、跨云、跨形态部署的复杂系统,能够理解多种形式的数据,针对不同问题自动选择最优模型,并在多云环境中原生运行。

这一认识反映了AI应用从单点突破向生态融合的发展方向。

黄仁勋特别强调了开源模型的重要地位,认为开源模型已领先大型科技公司的闭源前沿模型约半年时间。

他表示英伟达不仅提供开源模型,还将开源训练数据,使用户能够透彻理解模型形成过程。

物理AI成为本次发布的核心主题。

黄仁勋介绍,英伟达经过八年多研究开发的全栅物理AI平台,将训练、推理、模拟作为三大计算重点。

为支撑物理AI发展,公司推出Cosmos世界基础模型平台,旨在提供更丰富的训练数据。

这一平台的推出标志着英伟达从芯片提供商向AI基础设施综合服务商的转变。

自动驾驶领域的布局成为此次发布会的重点。

英伟达推出Alpamayo模型,这是业界首个专为自动驾驶设计的开源思考与推理模型。

梅赛德斯奔驰CLA 2025款车型将集成英伟达完整的自动驾驶技术栈,首批搭载该技术的车型计划于今年第一季度在美国上路,欧洲市场将在第二季度跟进,亚洲地区发布则定于下半年。

这一时间表表明英伟达自动驾驶商业化进程已进入倒计时阶段。

黄仁勋表示,自动驾驶汽车将成为首个大规模面向主流市场的物理AI应用场景,并表达了对全球汽车实现自动驾驶的远期愿景。

在芯片技术方面,英伟达宣布最新的Vera Rubin超级芯片平台已全面进入生产阶段。

该平台集成Vera CPU和Rubin GPU,性能相比上一代Grace Blackwell平台提升一倍。

值得注意的是,尽管性能大幅提升,Vera Rubin平台的散热需求并未增加,无需采用水冷解决方案,这在芯片设计上体现了效能优化。

组装时间从原来的两小时缩短至五分钟,显著提高了生产效率。

Vera CPU搭载88个Olympus定制核心,晶体管数量达2270亿,代表了当前芯片工艺的先进水平。

黄仁勋深入分析了AI芯片快速迭代的内在驱动力。

他指出,当前AI需求呈现爆炸式增长,模型参数规模以年均约十倍速度扩大,推理阶段计算需求以年均约五倍速度增长,而token成本需要以年均约十倍速度下降。

这意味着AI竞争的本质已演变为计算能力的竞赛。

在这种背景下,仅依靠制程工艺进步已无法满足成本持续下降的要求,英伟达过去遵循的"每代最多改变一至两颗芯片"的产品迭代原则已不适应新形势,需要进行更激进的架构创新。

在具身智能领域,英伟达也在加强生态建设。

西门子集团已确认将把英伟达的CUDA-X库集成到其设计与工程工作流程中,在机器人仿真等应用场景使用英伟达Omniverse平台和相关工具,这反映了传统工业巨头对英伟达AI基础设施的认可。

从“不发布新GPU”到强调平台量产、开源模型与场景落地,此次演讲传递的信号是:算力产业正进入以系统化创新和生态协作为特征的新阶段。

真正决定产业走向的,不只是单一指标的跃升,更在于能否把技术能力转化为可规模复制、可持续迭代、可被社会安全接纳的应用体系。

未来竞争,既是算力与算法的竞赛,更是工程、治理与产业协同能力的综合比拼。