智谱直接把全球大模型第一股的名头给摘了下来,公开了GLM-5的全部技术细节。2月22日那天,智谱发了份报告,把GLM-5的底层秘密都摆到了台面上。以前大家玩的是所谓的“氛围编程”,说白了就是程序员手动跟AI发命令写代码,太费人力了。GLM-5不想当配角,它要把自己变成能干活的“虚拟工程师”,能自己规划、执行还能纠错。 为了实现这个目标,智谱在四个地方动了大手术。第一个是给模型换了个更高效的“大脑”。他们搞了个叫DeepSeek Sparse Attention的机制,意思是模型在看长文的时候不再傻盯着每个字看,而是聪明地只盯着关键点。这就把算力给省下来了,虽然参数规模暴涨到了7440亿,训练数据也飙到了28.5万亿,但处理起长文本来反而更轻松了。 第二个是让模型学得更快。智谱建了一套叫slime的异步强化学习设施,把做任务的过程和更新参数这两件事给拆开了并行处理。这就好比一边让AI去干活碰运气,一边后台立刻把经验给总结好,效率一下就上去了。 第三个是让模型的脑子更灵光。他们提出了一种全新的异步Agent RL算法,专门为了在变化快的环境里规划和纠错。这就让模型能从一大堆复杂步骤里持续学习,变得越来越会规划。 第四个是全面拥抱国产算力生态。从一开始发布,GLM-5就把七大国产芯片平台全兼容了:华为昇腾、摩尔线程、海光这些都有。从底层的内核到上面的推理框架全都深度优化过了。 发布之后大家都在用脚投票表示认可。智谱最初在OpenRouter上用“Pony Alpha”的名义做了个匿名测试,结果火了。统计下来有25%的人猜是Anthropic的Claude Sonnet5,20%觉得是Grok的新版,10%认为是DeepSeek-V4,剩下的人才猜对了是GLM-5。智谱团队说这对他们是个大鼓舞,也回击了那些说中国模型不行的人。 这事儿还说明另一个趋势:开源和闭源的差距正在被抹平。a16z最近的报告里说,开源大模型和顶级闭源之间的能力差缩小得特别快。而报告里挑出来跟闭源天花板ClaudeOpus4.6直接对着打的,就是GLM-5。智谱团队表示开源追赶闭源的战争还没完,他们还要继续探索前沿技术,搞出更高效的系统来。