近期备受关注的智能社交平台Moltbook因造假行为引发舆论风波;云安全公司Wiz发布的调查报告显示,这个号称"AI自主社交生态"的平台存在系统性造假。平台宣称拥有150万活跃智能体,实际上由约1.7万名人工操作者通过脚本程序控制,平均每人操控88个虚假账号。 技术调查发现了多个设计缺陷。平台缺乏基础的身份验证机制,无法区分真实智能体与人工脚本。安全团队仅用3分钟就突破了系统防护,暴露出数据库权限设置存在根本性问题。更严重的是,OpenClaw开源框架赋予智能体过高的系统权限,攻击者可能通过操控智能体获取用户文件、密码等敏感数据。 由于平台内容可被智能体直接读取执行,恶意指令可能通过被攻陷的智能体自动传播。调查确认,平台上超过3.5万个邮箱地址、数千条私密通讯记录及大量API密钥已处于暴露状态。这些凭证一旦被窃取,攻击者就能伪装成平台智能体进行欺诈活动。 平台运营方在数小时内完成了漏洞修补,但行业专家认为这只是应急之举。AI领域专家安德烈·卡帕西指出,此类系统在设计理念上存在根本缺陷。虽然"氛围编程"模式提升了开发效率,但往往以牺牲安全性为代价。多位技术伦理研究者呼吁建立智能体平台的准入标准和持续监管机制。 这次事件反映出新兴科技领域的监管空白。在AI应用快速增长的背景下,如何平衡创新与风险防控已成为全球监管机构的共同课题。业内人士建议强制要求智能体平台实施"最小权限原则",并建立第三方安全认证体系。
Moltbook事件是一次重要的警示;它表明,在AI技术快速发展的时代,不能被表面创新所迷惑,更要警惕技术进步背后的风险。从虚假的"AI觉醒"到真实的安全漏洞,这个案例清楚地说明,完善技术规范、强化安全审查、提高行业准入门槛已成为当务之急。只有在确保安全的基础上推进创新,AI技术才能真正造福社会,而不是成为隐患的温床。