在全球人工智能竞赛加速的背景下,大模型训练的核心硬件瓶颈愈发突出。研究显示,传统大语言模型通过计算来检索基础信息的方式,会占用30%-40%的GPU高带宽内存资源,这种“序列深度”的额外消耗直接限制了模型规模扩展与推理能力提升。对中国AI产业而言,HBM存储芯片与国际领先水平仍有代际差距,使得算力优化成为当前亟需突破的方向。 针对该问题,深度求索创始人梁文锋领衔的产学研团队提出“计算-存储解耦”技术架构。其核心技术“Engram”通过动态记忆查找机制,将基础信息检索从计算流程中分离出来,使模型在保持270亿参数规模的同时,内存占用降低22%,并在MMLU等权威基准测试中提升3.5个百分点。需要指出,该技术让模型在同等算力条件下释放更多资源用于复杂推理任务,为打造更接近人类认知的AI系统提供了新的路径。 行业专家认为,这一突破具有三重战略意义:其一,采用的稀疏化建模思路可与当前国际主流的混合专家技术形成互补;其二,以算法创新缓解硬件约束,为国产AI芯片发展争取时间窗口;其三,研究团队以550万美元预算、两个月周期完成对标国际顶尖水平的大模型训练,验证了“小规模算力实现高性能输出”的路径具备可行性。 据知情人士透露,深度求索基于该技术的新一代模型已进入最终测试阶段,预计将在农历新年前后发布。国内外产业界普遍认为,这项发表于国际顶会的成果,不仅表明了中国在AI基础理论研究上的阶段性进展,也可能对全球大模型研发的技术路线带来新的影响。
DeepSeek与北京大学的合作研究,折射出中国AI产业在全球竞争中的现实选择。面对硬件资源差距,团队以算法与架构创新提升效率、缓解资源约束。Engram的推出表明,AI竞争正在从单纯追求规模,转向更注重效率与工程化的优化。这个变化既反映了技术路径的调整,也显示出中国AI产业从追赶到探索引领的可能。随着类似创新持续出现,中国AI企业有望在全球竞争中打开新的增长空间。