大模型第一股的智谱

2月22日这天,那个被大家称作“大模型第一股”的智谱,把他们最新的基础模型GLM-5的技术报告给推了出来。在这份报告里,大家把以前很多藏着掖着的细节都摊开讲了。之所以叫这次的大模型能在编程这块儿这么猛,最关键的就是里面藏着一个叫异步智能体强化学习的算法,这玩意儿让不少技术圈的人都竖起了大拇指。以前大家编程都是瞎感觉,现在GLM-5就是要把“Vibe Coding”这种氛围感的编程给换成更讲究逻辑的“Agentic Engineering”。 这次技术报告里列了四大绝招。第一招就是搞了个DSA稀疏注意力机制,这是DeepSeek搞出来的。用了这个新架构,训练和推理的钱花得少了不少。以前的GLM-4.5靠标准的MoE架构来省事儿,这回的DSA能看Token的重要程度来分配注意力。这样一来既不影响模型理解长上下文和深层推理的能力,又能把算力开销降下来。靠这一招,模型的参数一下子扩展到了744B也就是7440亿,训练的Token数量也涨到了28.5万亿。 第二招是搭了个全新的异步RL基础设施。他们把GLM-4.5那会儿的设计思路给发扬光大了,把生成跟训练彻底解耦开了。这个系统让GPU用得特别溜,能让模型大规模去探探路。以前那种拖慢迭代速度的同步瓶颈在这儿基本不存在了,强化学习的效率一下子就高了好几个档次。 第三招是提出了一个新的异步Agent RL算法。这个算法主要就是为了让模型的脑子更灵光点。以前的GLM-4.5是靠迭代蒸馏还有结果监督来教Agent的;现在这个新算法能让模型在各种各样的长周期互动中持续学习。这个针对动态环境下的规划和自我纠错能力做了深度的优化。 第四招就是彻底拥抱国产的算力生态。从一开始发布的时候,GLM-5就已经把国内的GPU生态给适配好了。从底层的内核到上面的推理框架全都优化过了,七大主流国产芯片平台都能跑:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯还有燧原。 在OpenRouter平台上匿名发布GLM-5的时候(代号是“Pony Alpha”),大家在技术圈可真是炸锅了。它在资本市场上的表现也特别猛,从2月9日到现在股价直接翻了一倍,最高摸到了725港元一股。这就说明市场对它的技术和未来是相当看好的。有意思的是,虽然它是个开源模型效果却火遍全球,这次公开细节更是给了开源社区很大的信心。 最近硅谷顶级风投a16z拿智谱的GLM-5跟全球闭源模型的天花板Claude Opus 4.6去PK了一下数据显示两者的差距正肉眼可见地缩小。报告最后智谱也特意说了这事儿:GLM-5这回算是狠狠回击了外界说中国本土模型不行的质疑。不过他们也强调这场追赶闭源的战斗还没打完,公司会继续往前冲把底层系统做得更智能更高效。