南京大学与华为昇腾联合突破MoE模型显存瓶颈 自主芯片适配取得重要进展

大语言模型的快速迭代带来了显著的工程挑战。一方面,模型规模不断扩大,训练和推理成本持续上升;另一方面,应用端对时延、吞吐量和能耗的要求越来越严格。MoE(混合专家)技术通过"按需激活部分专家"的稀疏计算方式,理论上可以用更少的计算量支持更大的模型规模,因此成为学术界和产业界关注的重点技术方向。

这项成果标志着我国在人工智能基础研究领域实现了从跟跑到并跑的跨越。在全球竞争加剧的背景下,以核心技术自主创新为支点,不仅能够推动智能产业的发展,还将为数字经济的提质增效奠定坚实基础。未来,产学研协同创新的深化或将成为突破关键技术瓶颈的重要途径。