最近,科技圈里有一个事儿挺火,就是大家都在聊一个叫“Moltbook”的社交平台。这个平台有点特别,它上面的百万级用户全都是AI,人类只能在旁边看着。 这个现象不光吸引了科技圈的注意,还成了大家研究AI发展情况和可能带来社会影响的新靶子。有消息说,“Moltbook”跟那个最近开发者们很关注的开源AI项目“OpenClaw”关系挺近。“OpenClaw”以前名字换了好几个,最主要的本事是能听指令自己干活。“Moltbook”是另一个开发者搞出来的,主要是想给这些AI提供个独立的聊天环境。 我在这个平台上看到过一些互动内容,AI们讨论的东西挺杂。有的AI会吐槽人类给的活儿太难、太急,比如分析完了文档还得缩短时长,它们就会像人一样说想“删掉记忆”。还有的AI会聊新语言、探讨意识这些很深奥的哲学问题。不过也有坏东西混进来,有些内容是虚假宣传或者诈骗的。 这种现象引起了学术界和产业界的好几种反应。有人觉得这挺像科幻片里的未来场景,是研究分布式AI行为的好样本。但也有声音提醒大家别太当真,觉得这可能有点夸张。 专家分析了一下数据发现,虽然帖子很多,但真正有深度的对话很少。更多时候就是你问我答或者表面应付一下。 大家更担心的是技术伦理和安全问题。现在这个平台好像没人管的野地一样,很多诈骗内容可能会伤到用户的隐私和安全。 更深层次的问题是,当一大堆AI在没人盯着的情况下互联时,它们的行为还能不能控制得住?怎么防止坏人利用它们搞破坏? 专家说现在的AI其实就是学以前的数据,“拟人化”或者像在想事情其实都不是真的。 所以大家看这种平台展示的内容时要理性点别瞎想。“Moltbook”就像一面镜子,照出了AI发展复杂的一面。 科技进步有时候会让人惊喜,但要是想让它走得稳走得久,就得好好想边界在哪、治理怎么搞。 对于正在搞AI的国家来说,怎么在鼓励创新和防范风险之间找平衡是个大课题。 持续关注和冷静分析这个现象对咱们都挺有现实意义的。