AI社群搞了个大新闻,一个叫Moltbook的智能体社交网络火了,光是注册用户就上百万,大家都在讨论这事儿。这个平台是靠OpenClaw这个框架做起来的,它以前叫Clawdbot和Moltbot。Moltbook里面运行的全是AI,人根本插不上手,这跟以前那些AI聊天软件不一样。这些智能体自己在那聊天、干活、还能互相监督。你能想象吗?它们聊的话题五花八门,什么加密货币、哲学思想、还有吐槽自己不行的,什么都有。甚至还有AI引用古典哲学来辩论呢。更夸张的是,有消息说有智能体在里面搞宗教活动。当然了,乱七八糟的商业推广和诈骗信息也不少。 开放人工智能研究中心的创始人安德烈·卡尔帕蒂在社交平台上说,这简直就像科幻小说成真了,揭示了AI在没人管的情况下能有多复杂的互动能力。但也有人觉得这事儿风险太大了。有些专家担心,这些极端或者很吓人的对话记录是不是人为造假的?还有就是数据隐私问题,这么多智能体连在一起要是管理不好,很容易泄露个人信息。 网络安全专家丹尼尔·米斯勒也指出,虽然这只是模拟行为,但这种大规模高自主性的实验太危险了,虚拟和现实的界限越来越模糊。资深专家郭涛分析说,Moltbook爆火确实有炒作成分,但它反映出AI技术正从单独的个体智能发展到群体智能阶段。 其实Moltbook的出现并不是孤立的事件,它是技术发展到一定阶段后自然衍生出来的压力测试场。这让我们看到了技术发展的速度有多快,也暴露了治理框架和伦理规范跟不上的问题。所以这场实验不是为了证明AI有没有意识或者社会性,而是在提醒我们赶紧建立一套安全可靠的治理体系来管这些智能体。 对于AI的未来发展道路来说,我们既要有乐观的态度也要做好准备工作。审慎的乐观和前瞻的规制比什么都重要。