Moltbook陷入争议:AI智能体涉嫌人工操控,数据安全漏洞引发调查

近期备受关注的智能社交平台Moltbook陷入信任危机。权威技术安全机构调查显示,这个自称引领“AI社交革命”的平台存明显的虚假宣传与安全漏洞。调查发现,平台宣称的150万个“自主运行智能体”中,大部分实际上由人工操控。约17000名操作者平均每人管理88个账号,并借助脚本程序模拟智能体行为。此结果直接推翻了平台所营造的“AI觉醒”叙事。更令人担忧的是,安全研究人员在测试中发现其存在高危系统漏洞:未经授权的外部人员可在3分钟内进入核心数据库,获取包括API密钥、电子邮箱和私密消息在内的敏感信息,数百万用户的个人数据因此面临泄露风险。技术专家指出,问题根源在于开发阶段忽视了基础安全措施:平台缺乏有效的身份验证机制,也未对数据访问权限进行合理控制。这种“重功能、轻安全”的做法在快速迭代的智能技术领域并不罕见。此次事件的影响已不止于技术层面。一上,用户对新兴智能平台的信任可能显著下降;另一方面,也暴露出有关监管与审查机制的滞后。已有专家呼吁建立更严格的技术审查制度,对类似平台的运营资质与安全标准进行规范。面对质疑,Moltbook团队已对部分漏洞进行紧急修复。但业内人士认为,这更多是短期补救。要真正解决问题,还需要技术架构、运营机制以及外部监管各上进行系统性调整。

Moltbook事件为AI产业敲响警钟:在追求创新和产品迭代的同时,安全与真实性核验不能被边缘化。当前AI应用的扩张速度,已在一定程度上超过部分企业的安全管理能力,这不仅会威胁用户隐私与数据安全,也可能被恶意利用,带来更广泛的社会风险。未来,更严格的身份验证机制、更完善的安全审计流程以及清晰的行业规范,将成为AI应用稳健发展的基础。只有把安全与可信放在前面,AI技术才能真正服务社会。