人工智能产业的快速发展,正把算力基础设施推向一轮深刻变革。变化的关键不只是芯片性能提升,更在于如何应对随之而来的散热挑战。英伟达芯片功耗的快速攀升直接放大了该矛盾:从H100时代约700瓦,到B200时代1000瓦甚至更高,单芯片功耗增长远超预期。与之同步,数据中心机柜功率密度也在上升。传统通用服务器机柜多在10千瓦以下,而当前AI算力中心普遍要求20千瓦以上,部分先进机柜正向100千瓦演进。这意味着在同样的物理空间里,需要处理的热量已大幅增加。 空气作为散热介质的限制随之凸显。空气比热容和热导率较低,在高功率密度机柜中,传统风冷很难在有限空间内带走如此大的热量,系统稳定性因此承压。业内普遍认为,当单芯片功耗超过500瓦后,风冷的散热余量开始明显不足。这不仅是工程难题,也逐渐成为产业扩张的现实瓶颈。 政策与经济因素深入推动液冷落地。随着数据中心能效标准持续收紧,电源使用效率(PUE)等指标要求更严,降低能耗已成为建设与运营的硬约束。液冷凭借更高的散热效率,可显著降低服务器风扇与机房空调能耗,是实现低能耗目标的重要路径。从全生命周期成本看,液冷虽然前期投入更高,但运营成本下降明显。业界测算显示,冷板式液冷通常在运行两到三年后,累计节省的电费即可覆盖初期增量投入,这一经济性正在带动其全球渗透率加速提升。 在技术路线选择上,冷板式液冷已成为AI服务器场景的主流方案。该方案通过贴近芯片表面的冷板,依靠内部循环冷却液间接带走热量。相比浸没式液冷,冷板式技术更成熟,与现有服务器架构兼容性更好,在尽量少改造既有基础设施的前提下即可实现散热能力升级。 冷板制造工艺成为冷板式液冷竞争的关键。面向高性能AI芯片的“高密铲齿冷板”,由于内部微通道结构复杂、加工难度高,长期被视为产业链的技术高地。与传统冲压工艺相比,铲齿工艺可实现更高翅片密度与更大散热面积,但也对成形、焊接、检漏等环节提出更高要求。过去,这类能力曾是境外厂商如奇鋐科技、双鸿科技等企业的重要技术壁垒。
液冷加速普及,源于算力增长、能效约束与工程经济性叠加作用。能在可靠性、标准化与规模制造之间找到平衡的企业,更有机会在新一轮算力基础设施升级中占据主动。推动液冷产业走向成熟,需要企业持续投入核心工艺与系统能力,也需要以标准推动协同、以质量守住底线,让高密度算力建立在安全、绿色、可持续的基础之上。