英伟达首批vera rubin 样品下半年批量出货

就在这周,英伟达给了几个核心合作伙伴首批的Vera Rubin样品。听消息说,这平台下半年就能开始批量出货了。Vera Rubin可不光是升级个产品那么简单,它是专门为了下一代AI数据中心准备的,想用新架构打破系统瓶颈。这个平台把六个芯片深度结合在一起,从算的快、连的稳到能耗省,把以前搞大规模AI推理的那些老问题都给解决了。 这平台最核心的部件有六个:一个是基于英伟达Olympus架构的Vera CPU,这块芯片有88个高性能核心,加上空间多线程技术,能同时处理176个线程。它比前代Grace CPU的处理和压缩速度快了一倍,很适合干那些特别难的数据预处理活儿。第二个是Rubin GPU,首发用的是下一代HBM4内存,单个显卡内存容量能到288GB,带宽也冲到了22 TB/s。它还配了个第三代Transformer引擎,做FP4推理的时候能飙到50 PFLOPS,训练也有35 PFLOPS的水平。跟现在的Blackwell架构比起来,它在推理和训练上的性能大概分别提升了5倍和3.5倍。第三个是Rubin CPX GPU,它走的是另一条路子,用128GB的GDDR7内存。这就给那些对成本敏感或者对延迟要求高的场景提供了一个灵活又优化的选择。第四个是NVLink 6.0交换芯片,能让单颗GPU有3.6 TB/s的双向带宽。用NVL72系统的时候,这个带宽能聚到260 TB/s,比以前高太多了,彻底解决了大规模计算时数据传不过来的问题。第五个是BlueField-4 DPU,这是一颗专门给数据中心干活的基础设施芯片。它不光能加速固态硬盘读写,还能把像键值缓存这些活给卸载掉,帮CPU腾出身子专心干活。第六个是网络方面的东西,包括Spectrum-6光子以太网和Quantum-CX9光子InfiniBand网络接口卡。 为了让平台能顺利跑起来,英伟达正跟好多伙伴一块努力优化软件和硬件的配合。红帽、AWS、Anthropic、微软、Meta这些大厂都已经说好了要支持这个平台。根据合作的深度不同,大家拿到的东西也不一样。像那些顶梁柱的云服务商或者顶尖的AI研究机构,最先拿到的就是完整的Vera Rubin NVL72机架系统,里面一共塞了72个Rubin GPU和36个Vera CPU这些关键部件。 富士康、广达、超微、纬创这些做服务器的大厂也拿到了真家伙的样品,正忙着做系统适配和生产验证呢。这次首批样品的交付不仅仅是研发的一个转折点,更是标志着英伟达的下一代AI基础设施已经开始正式进入客户验证和生态建设的阶段了。 结合公司最近营收预估一直在涨的情况,再加上市场对AI算力需求这么大,Vera Rubin平台预计从下半年起就能开始大批量出货了。这次它在降低推理成本、提升能效还有扩展能力上估计又要搞一次大飞跃了,能帮英伟达继续坐稳高性能AI计算领域的老大位置。