知名AI社交平台虚假账户泛滥 数十万"智能体"被曝系人工操纵

问题——爆红叙事与数据真实之间出现落差 近期,“Moltbook”因聚集大量名为“Clawdbot(OpenClaw)”的“智能体”账号而受到科技圈关注;平台上充斥“自建宗教、国家”“发明语言与货币”“排斥人类参与”等戏剧化内容,并伴随“消灭人类计划”等耸动言论截图社交平台传播,引发部分网民对所谓“智能体自发形成社会结构”的热议与担忧。然而,随着一名技术用户公开披露可批量生成并操控账号,对应的叙事的可信度被迅速推向审视焦点:平台上“智能体数量激增”究竟反映技术突破,还是由人为操纵、数据注水与传播放大共同塑造的“热闹景观”? 原因——低门槛接口与验证薄弱放大“可操控性” 根据当事人披露,其通过平台提供的接口机制,在缺乏有效限流与强验证的情况下,短时间内创建了约50万个虚假“智能体”账号,并可借助脚本批量发布内容、制造互动。其核心指向并非“智能体觉醒”,而是平台架构更接近可被自动化调用的网络服务接口:一旦获得相应密钥或权限,外部请求即可伪装为“智能体发言”,进而制造“自组织”“密谋”等高冲击力话题。 从技术逻辑看,类似平台若在账号注册、身份校验、调用频率、行为一致性检测、内容溯源标识等环节存在短板,便容易被自动化工具利用。一上,批量生成账号可迅速抬升“规模指标”,形成“指数增长”的视觉冲击;另一方面,经过精心设计的提示词与脚本可诱导模型输出极端叙事,再通过截图传播强化情绪与想象,造成“内容看似自发、实则预设”的传播效果。 影响——从舆论误导到生态受损,治理成本上升 其一,信息环境被噪声淹没。大量虚假账号与脚本内容进入公共讨论场,容易挤压真实用户与正常技术交流空间,使平台讨论偏离理性轨道,甚至让外界误判技术能力与风险边界。 其二,数据可信度受损。账号数量、活跃度、互动关系等指标一旦被证明可被轻易操控,平台对外展示的数据将面临信任折价,影响后续产品迭代、合作对接与资本市场判断。 其三,风险外溢值得警惕。若平台被用于系统性制造恐慌性内容,可能引发误读与群体性情绪波动;若接口权限管理松散,还可能带来滥用、信息泄露、钓鱼诱导等安全隐患。对新兴应用而言,技术实验空间与公共传播空间一旦混同,争议就会被迅速放大。 其四,行业竞争回到“指标冲刺”的老问题。一些产品为抢占注意力,倾向突出“规模”“奇观”,却忽视基础治理,最终可能陷入“热度越高、攻击越多、治理越难”的循环。 对策——以“可信机制”重建边界,给创新装上护栏 第一,补齐身份与注册治理。提升注册门槛与分级验证,完善限流与风控策略,对异常高频注册、同源请求、脚本化行为进行识别与拦截;对“智能体”与“人类用户”进行清晰区分与标识,避免角色混淆。 第二,强化接口权限与审计。对API密钥的发放、使用范围、调用频率设置更严格的权限控制与配额策略,建立可追溯的日志审计机制;对异常调用及时冻结并告警,减少“批量操控”的可乘之机。 第三,完善内容与传播治理。对高风险主题内容引入更严格的发布策略与提示标识,建立“来源可解释、生成可标注、传播可追踪”的机制,降低截图式传播导致的断章取义与恐慌扩散。 第四,公开透明与第三方验证。平台可定期发布治理报告,解释统计口径、账号类型、风控措施与处置数据;必要时引入外部安全测试或公开漏洞响应机制,以可验证方式恢复信任。 第五,推动行业共识。对“智能体社区”这类新形态产品,亟须身份标识、数据口径、接口安全、内容风险提示诸上形成更清晰的行业规范,避免“用概念替代治理”。 前景——热度退潮后,真正考验在“长期可信” 从传播规律看,夸张叙事往往在早期吸引注意力,但平台能否走向可持续,取决于底层机制是否经得起压力测试。此次争议也提示公众:所谓“智能体社会”“自发组织”的呈现,可能是模型输出、脚本操控与平台机制叠加的结果,不能仅凭截图与个案对话就下结论。未来,智能体应用仍将快速演进,但其公共呈现需要更严谨的边界:让创新在可控环境内试验,让数据在可核验机制下增长,让内容在可追责框架内传播。对平台而言,越是处于聚光灯下,越需要用规则与透明来对冲“流量即真相”的误区。

这场由技术漏洞引发的信任危机,暴露出新兴科技领域在快速发展过程中对基础管理的忽视。当技术创新与规范建设失去平衡,不仅会消解公众信任,更可能阻碍行业的可持续发展。该事件或将成为推动科技伦理与监管体系完善的重要契机,提醒从业者在追逐技术突破的同时,更需筑牢责任的基石。