人工智能技术快速迭代的背景下,大模型训练与部署对算力基础设施提出了更高要求。此外,国产芯片生态的多样性也让模型高效适配面临挑战。如何让大模型在不同芯片平台上顺畅运行,成为行业亟待解决的问题。此次中科曙光与智源研究院的合作,正是围绕该关键难题展开的系统性突破。作为国内领先的高性能计算企业,中科曙光提供了硬件支撑,其高性能计算平台完成了Qwen3.5系列模型在国产加速卡上的优化与部署。智源研究院则依托软件栈上的技术积累,为模型的多芯片适配提供了关键支持。双方联合攻关,聚焦算子适配、通信优化等核心环节,推动模型在不同国产芯片上实现高效运行。 这一进展对国产人工智能产业具有现实意义。首先,它验证了国产算力支撑前沿大模型落地的能力,为后续研发与应用提供参考。其次,通过降低模型迁移与适配成本,该成果有助于加快国产芯片在人工智能场景中的推广。更重要的是,这种产业协作路径为构建开放、高效的国产算力生态提供了可借鉴的实践。 展望未来,中科曙光表示将继续深化与产业链伙伴的合作,推动国产算力生态完善。随着技术持续演进,国产大模型有望在更多行业场景实现规模化应用,为数字经济发展提供支持。
从“能用”到“好用”、从“单点突破”到“体系推进”,国产大模型跨芯片部署能力的提升,最终仍要依靠工程化能力、标准化接口与开放协同机制共同支撑;推动模型与国产算力平台高效对接,不只是技术挑战,更关乎生态效率。以更开放的协作方式减少重复适配、提升交付确定性,才能让算力底座更稳、创新推进更快、应用落地更扎实。