ai 集群互连散热的技术给落地了

这回跟大伙儿聊聊AI集群互连散热的事儿,这报告一共有17页。咱们先把目光放远点儿,现在AI大模型迭代得飞快,都往L3智能体那代冲去了。这一冲可不一般,从2025年到2030年,全球AI智能体的市场规模要猛涨46.3%。像企业级的智能体也不闲着,商业化搞起来了,这就直接带动全球算力跟着高速长。等到了2030年,光靠智能算力这块就占了总需求的90%以上。 算力涨了,芯片的耗电量自然也就上去了。英伟达的硬件产品升级得挺猛,从H100到现在的Vera Rubin平台,单芯片的热设计功耗直接从700W飙到了3700W。这一下子把数据中心的压力给顶上去了,以前那种风冷散热方式现在是越来越吃力。服务器机柜的功率密度也跟着飙升,主流机柜都到了12到15千瓦每柜,有些超算中心更是能破30千瓦大关。 风冷不行了咋办?液冷这时候就得顶上了。不光是为了应付高功率密度的问题,国家还有各地也在盯着数据中心的PUE指标不放。2025年新建的那些大型或者超大型数据中心,平均PUE要求得降到1.3以下。过去咱们做散热主要盯着CPU和GPU这些芯片看,可现在架构变了,高速连接器、光模块这些互连系统变成了新的热源。光模块速度快了,SerDes消耗的功率多了,再加上大家都挤在一起散热空间少,很容易在局部形成高温的热斑。 连接器发热可不是那么简单的事儿,它是电、热、力这几个物理场耦合在一起的结果。主要的热量来自焦耳热、接触电阻产生的热还有旁边热源传导过来的。这几种热源占比都在变大。以前的散热方式比较被动,主要靠材料好一点或者结构优化一点来减少热量和优化导热路径。现在大家都开始转向主动管理了。像冷板这种以前的接触式散热办法已经慢慢被集成式液冷替代了。现在市场上还出现了散热桥、浮动静置式冷板这些新花样。 高速I/O、电源连接器还有高速背板这几个地方对散热的要求各不相同。行业里的厂家也纷纷推出了针对高传输速率和大电流的连接器产品和解决方案。那些头部企业在液冷技术上已经有了成熟的产品体系和技术优势,这就把AI集群互连散热的技术给落地了。