2月26日那天,周鸿祎回了趟360大厦。跟他去年穿着红色POLO衫、带着厚眼镜的样子比起来,这次他瘦了很多,换上了淡蓝衬衫,眼镜也不戴了。他对大家说眼睛做了个小手术。新京报贝壳财经记者罗亦丹拍下了他这次的模样。 今年开年,AI圈发生了两件挺热闹的事:OpenClaw在论坛里不需要人操控也能互动,Seedance 2.0生成的画面看着跟真的影视效果一样。周鸿祎觉得这是一个信号,说明通用人工智能(AGI)正在一步步走来。 他觉得很多人还没把大模型当回事,只把它当搜索引擎用,错过了深入理解的机会。周鸿祎演示了一个叫“第一性原理”的智能体,跟它聊了会儿发现,有时候它比自己更懂。 要想让智能体工作得好,就得学会像人一样协作。虽然OpenClaw看着是本地运行的,但实际上还是靠云端的大模型在指挥。真正厉害的是智能体们开始像人类社会一样互相交流了。 实验显示,如果只有一个智能体干活,很容易出幻觉;但只要给它一个特定身份让它更专注(也就是Cosplay),再加上让不同的模型互相核对(也就是多头互审),准确率就能大大提高。周鸿祎打了个比方说:“算力要是够了,咱们就能同时养上百亿个智能体。单个虽然会犯错,但大家一起干就能出现像互联网一样的涌现智慧。” Seedance 2.0那种特别逼真的画面让周鸿祎觉得挺有意思。他想象着未来大家只要输入关键词就能生成属于自己的影视结局,这种个性化的东西很快就能普及到大众生活里去。 对于大家担心的“AI内容太多”的问题,周鸿祎说技术本身是中立的,关键要看怎么用。现在平台已经能通过隐式数字指纹自动标记那些AI生成的内容了,这样以后审核起来也方便得多。他笑着说:“咱们看不出差别,恰恰说明AI的本事提高了——这是好事儿。”