1月12日,第九届深商盛典暨中国企业家俱乐部二十年活动在深圳前海举行。
围绕“遇见未来的中国企业思想”主题,与会企业家就产业变革、技术突破、生态构建与社会责任展开研讨。
科大讯飞董事长刘庆峰在发言中聚焦大模型底座能力建设,提出在芯片供应受限等外部环境影响下,加快构建自主可控的算力与软件体系,已成为推动产业持续创新的重要命题。
问题:大模型竞争加速,算力受限成为关键瓶颈。
当前大模型迭代进入“以工程化能力与系统效率取胜”的阶段,模型训练与推理高度依赖高性能算力集群与稳定供应链。
面对外部不确定性增加,部分高端芯片与配套生态供给受限,导致训练资源紧张、成本上升、迭代周期拉长等问题突出。
如何在算力可获得性、训练效率与产业安全之间取得平衡,成为行业普遍关注的焦点。
原因:从“买得到、用得好”转向“自研化、系统化”的底层能力建设。
刘庆峰表示,科大讯飞选择更具挑战的全国产算力路线,并非仅为替代单一硬件,而是推动从芯片、互联、算子到训练框架的一体化优化。
其指出,在算力资源约束下,要把成本与效率做出来,不能只依赖在既有平台上的局部工程优化,而需要打通多环节协同:既要解决万卡级高速互联组网、计算与通信协同等系统工程问题,也要在推理高吞吐、算子适配与优化等细节上持续攻坚。
发言中提到,自2023年5月起,科大讯飞与合作伙伴围绕万卡集群互联、计算通信隐藏、训练推理强交互、高吞吐推理与国产算子优化等环节推进联合攻关,使通用大模型及深度推理类模型训练效率逐步提升。
影响:效率提升有助于降低成本、稳定供给,并带动产业链协同升级。
算力效率的跃升,首先意味着单位能力的训练成本下降与资源利用率提高,为模型快速迭代提供更稳定的“燃料”。
其次,国产算力平台在大规模训练与推理环节的可用性增强,有利于更多行业客户在教育、医疗、政务、制造等应用中形成持续供给,降低对外部高端算力的依赖。
更重要的是,围绕国产硬件生态的适配优化会反向推动软件栈、工具链与工程体系成熟,促进国产算力从“可用”走向“好用、易用”,提升产业整体韧性。
对策:以“软硬协同+场景牵引+标准化工程”推进可持续突破。
一是持续完善国产算力平台的系统工程能力,通过网络互联、调度优化、编译与算子体系、训练框架协同等提升集群效率,形成可复制的工程方法论。
二是以应用场景反哺底层迭代,在教育办公、智能客服、工业质检等高频场景中沉淀数据闭环与评测体系,推动模型能力与推理成本共同优化。
三是强化产业链协作与开放生态建设,在训练数据治理、安全合规、评测标准、接口协议等方面加强共建,降低迁移与适配成本,促进更多开发者与行业伙伴参与。
前景:自主算力底座有望推动国产大模型进入“规模化应用与降本增效”的新阶段。
刘庆峰在发言中称,国产大模型在全国产算力平台上训练,即便参数规模较小也可对标国际领先水平;并表示在攻克关键难题后,相关训练效率已从初期水平提升至较高区间。
其进一步介绍,围绕长思维链强化学习与MoE模型全链路训练等方向,国产算力平台训练效率实现明显提升,推动相关能力实现从“可行”到“可用”的跨越。
他表示,讯飞星火是目前主流通用大模型中唯一基于全国产算力训练的模型,随着底层能力继续增强,训练成本仍有下降空间。
业内人士认为,若国产算力在性能、稳定性、生态工具与开发体验上持续提升,将为大模型在更多行业的深度落地提供支撑,同时也会带动国产软硬件生态在标准、人才与工程体系方面加速成熟。
科大讯飞在全国产算力训练大模型方面的突破,不仅是一次技术创新的胜利,更是中国人工智能产业走向自主可控的重要里程碑。
这一成就表明,面对外部挑战,中国科技企业有能力通过自主创新开辟新的发展路径。
随着国产算力生态的不断完善和技术水平的持续提升,中国人工智能产业必将在全球竞争中占据更加主动的地位,为经济社会发展注入更强劲的数字化动力。