英伟达又搞出了个大动作,液冷机架加万亿参数的配合,直接把ai 推理给推到了新高度。

英伟达这回又搞出了个大动作,液冷机架加万亿参数的配合,直接把AI推理给推到了新高度。01在GTC 2026大会上,他们亮出了一块革命性的新板子,Groq 3 LPX,专门就是冲着智能体系统那两个让人头疼的毛病来的——反应太慢和记不住事儿。这套系统是给Vera Rubin AI推理加速器准备的新底盘,打算下半年就落地了。02这板子设计得很暴力,全身都浸在液体里散热,底下是MGX的基础设施做骨架。整个大机架被拆分成32个1U的计算托盘,每个托盘里头塞了8颗Groq 3芯片,也就是LP30。单颗LPU还自带500MB的片上SRAM。把这些数字加起来看,256颗LP30凑齐了128 GB的SRAM容量,换算成带宽就是40 PB/s。这就好比给万亿参数模型装了个随身携带的“内存条”。对于那些需要高频解码、立马输出的活儿来说,这速度直接翻番,响应时间也能砍掉一半。03每颗LP30芯片外头还连着96条112 Gbps的C2C链路,在托盘里头把这些线织成了一张密网。再通过结构扩展逻辑连上头节点CPU,单个托盘就能带动384 GB的DRAM跑来跑去,这就变成了片上SRAM的后援仓库。当模型要翻回头去看长序列、大场景的时候,DRAM立刻顶上补位,既保证了容量又保住了速度。04英伟达现场报出的数字很硬核:给Vera Rubin平台换上Groq 3 LPX后,每兆瓦的推理吞吐量一下子翻了35倍。对于万亿参数的模型来说,这带来的营收机会可能有10倍之多。换句话说,以前因为太费电跑不动的超大模型现在能批量上线了,而且耗电只占原来的一小点零头。