目前,AI大模型参数规模已突破万亿级,过去主要依靠堆叠单一GPU的算力建设方式正遭遇瓶颈。功耗密度、互连带宽和内存容量的限制,使通信开销快速上升、算力利用率明显下降,逐渐成为影响大规模训练效率的关键因素。业内专家认为,继续单纯提升单芯片性能已难以支撑更大规模的训练需求,行业需要从底层架构寻找新的突破口。
大模型竞争进入下半场,算力比拼不再只是“芯片数量”,更在于“系统效率”。通过系统级协同重构智算底座,既是应对单芯片物理边界的现实选择,也有助于推动算力基础设施向更集约、更绿色的方向发展。面向未来,持续打磨互联体系、软件栈协同与工程化能力,才能把“算力规模”真正转化为“有效生产力”,为数字经济高质量发展提供更扎实的支撑。