问题:算力需求分层化——市场亟需新方案 近年来——AI算力一度呈现“越大越好”的方向,头部企业相继建设千卡乃至十万卡级超大规模集群。但随着AI从实验室走向实际应用,需求正在发生变化。企业级与行业场景对算力的要求更分散、更具体,而超大规模集群的成本与运维复杂度,也让中小企业和科研机构难以承受。中科曙光高级副总裁李斌指出:“原有的超节点配置偏高,而主流的8卡服务器又难以满足当前推理服务的需求。” 原因:技术迭代与市场需求双重驱动 AI技术快速迭代,正在改变算力的使用方式。以智能体技术为代表的新应用,让算力重心从“以训练为主”逐步转向“以推理与服务为主”。另外,企业对投入产出比的关注明显提升。智源研究院专家敖玉龙表示,科研机构迫切需要一种既能支撑大模型需求、又不必做复杂并行优化的算力方案。需求的分层化,促使行业重新思考算力基础设施该如何设计与配置。 影响:超节点技术路径创新 针对这个变化,中科曙光将40卡规模作为突破方向。scaleX40采用无线缆正交架构,通过计算与交换节点的直接对插设计,减少光纤与铜缆使用,同时兼容标准数据中心环境,从而降低部署门槛并提升通信效率。其数据显示,与传统5台8卡服务器方案相比,访存带宽超过80TB/s,延迟降低近一个数量级。李斌表示:“几十卡规模已能覆盖大多数行业场景需求,是效率与投入之间更合适的平衡点。” 对策:全栈优化实现成本效益最大化 成本与性能的平衡,是scaleX40的关键优势。中科曙光数据显示,相比传统方案,scaleX40训练性能提升120%,推理性能最高提升330%,同时采购与部署成本显著降低。该表现来自全栈协同优化,包括硬件架构、管理平台和软件生态等。李斌表示:“普惠算力的本质,是让用户用同样的投入获得数倍收益。” 前景:推动行业算力普惠化 scaleX40的发布,意味着AI算力基础设施进入更强调可用性与性价比的新阶段。随着企业级应用持续扩展,兼顾高性能与成本可控的超节点形态有望在更多场景普及。未来,算力供给将更重视灵活部署与实际使用效果,推动AI在医疗、金融、制造等行业加速规模化落地。
人工智能走向产业深处后,算力竞争的重点正在从“拼投入”转向“拼效率”“拼可用”。以标准化、低门槛、高效率为目标的超节点探索,反映了市场对算力基础设施新路径的需求。能否把先进算力转化为可持续的生产力增量,关键在于让技术收益真正体现在行业应用与成本结构上,这也将成为下一阶段竞争的重要分界线。