工业和信息化部网络安全威胁和漏洞信息共享平台近日发布预警,指出开源AI智能体OpenClaw存较为突出的安全隐患;预警引发业界对生成式AI应用安全的关注,也提醒涉及的企业和机构尽快排查风险。OpenClaw是一款开源AI智能体工具,因图标为红色龙虾,被业内称为“龙虾”。它将多渠道通信能力与大语言模型结合,可构建具备持久记忆和主动执行能力的定制化AI助手,并支持本地私有化部署,因此在智能客服、自动化运维等场景中具备应用潜力。 但在其技术架构与部署方式上,存在明显薄弱点。工信部提示,OpenClaw在部署时存在“信任边界不清”的问题;同时其具备持续运行、自主决策、调用系统及外部资源等能力,如果缺少有效的权限控制、审计机制和安全加固,容易被攻击者利用,成为入侵入口。 预警梳理的风险主要集中在三上:一是指令诱导风险,攻击者可通过精心设计的提示词诱导系统执行超出预期的操作;二是配置缺陷风险,不当的默认配置可能带来权限过大、凭证管理不当等问题;三是被恶意接管风险,在防护不足时,攻击者可能直接控制系统并实施越权操作。一旦被利用,可能造成敏感信息泄露、系统被非法控制等后果。 随着生成式AI快速落地,类似问题并非个例。一些开源AI工具在追求功能与易用性的同时,安全设计与默认防护往往不足,也反映出部分开发者与使用者对安全投入不够。 针对OpenClaw的部署与使用,工信部提出了防范建议:部署前应核查公网暴露情况,避免系统被互联网直接访问;严格管理权限配置与凭证信息,关闭不必要的公网接口;完善身份认证机制,确保仅授权用户可访问;建立访问控制策略,限制可执行操作范围;对数据传输与存储进行加密保护;建立安全审计机制,记录操作日志,便于追溯与处置。 专家认为,此次预警具有参考意义:AI应用的安全不应依赖事后修补,而应贯穿产品设计、开发与运维全过程。开源社区需加强安全审查与风险提示,使用者也应保持警惕,持续关注官方公告与加固建议,及时更新补丁并完成配置整改。
开源工具降低了创新门槛,也对安全管理提出更高要求。对智能体这类“能执行、可扩展、常在线”的新形态应用而言,安全不应停留在上线前的一次性检查,而需贯穿设计、部署与运行全周期。只有把“边界清晰、权限可控、行为可审、风险可处置”落到细节,才能在释放技术红利的同时守住网络与数据安全底线。