机器人咋就能那么听话?还能记住被打断的任务?阿里达摩院的RynnBrain模型这就把规则给改写了。别看它才30B的参数,性能硬是干翻了72B的大模型。就在这次评测里,它凭“眼脑协同”这一手,把16项国际比赛里的谷歌和英伟达都给碾压了。 以前的AI就像个“数字幽灵”,连最基本的空间都搞不清楚。机器人抓着空气摸茶杯、撞墙穿不过去的情况时有发生。RynnBrain的解法特别狠,它要求机器每推进一步文本,都得同时看一眼空间位置对不对。工厂里的机械臂就能看出这效果了,比如要抓传送带上的金属齿轮,它会先在视觉上确定坐标(X=1.2m,Y=0.8m),再结合语义理解轻拿轻放的意思,最后给出压力值0.3N的动作指令。跟纯靠文本推理的Gemini比起来,RynnBrain的运动轨迹误差直接少了72%。 达摩院的工程师给AI装上了“空间记忆卡”。不管机器人是开门还是拿东西,每做一步动作都要在脑子里打下一个“记忆桩”,比如冰箱门开到45度是个什么向量坐标。这些桩子串起来就像个书签链,任务被打断了也能立刻接起来。厨房里的实操特别有说服力,机器人正在切胡萝卜呢,忽然被叫去关火,它不光能记住切到哪儿了,还能算出锅的余温会让食材缩水多少,回来时还能自动把下刀角度给调准。 最让人吃惊的是它的节能模式。传统大模型得把所有参数都用上才能干活儿,可RynnBrain只要调用3B个关键参数就够了。这就好比拿着瑞士军刀的精度干出了挖掘机的活——在搬运测试里,它的路径规划比那些72B的家伙还顺滑。 秘密藏在达摩院自研的RynnScale架构里。这项技术会按任务的难易程度自动分级:基础的走路导航用20亿参数的子模型就行;要是搞精密装配这种精细活儿,就激活30B的MoE专家模块。就像人脑不会用解微积分的那块脑区来走路一样,这种按需分配的机制让计算资源利用率提升了200%。 现在物流企业已经把RynnBrain给用起来了。以前遇到货堆容易死机的老系统已经被淘汰了,换上时空推理模块的新家伙就能自己画出“虚拟立体地图”,把底层的货物抽出来也不碰倒上面的东西。更绝的是开发者只用500条分拣数据微调一下模型效果就好了。这说明啥?说明机器学会像人一样理解物理世界才是正道。 正如达摩院负责人说的那样,RynnBench这个评测基准一出来,就给具身智能立了个新规矩。在这场“奥数竞赛”里,光靠算快是不行的;解题的关键得是敬畏现实世界、真正弄懂现实的逻辑。