开源AI智能体存在安全隐患 工信部提示防范网络风险

问题——开源智能体“走红”伴随安全隐患集中暴露。

近期,工业和信息化部网络安全威胁和漏洞信息共享平台监测发现,OpenClaw开源智能体的部分部署实例在默认或不当配置情况下,存在较高安全风险,可能诱发网络攻击、敏感信息外泄、主机受控等安全事件。

OpenClaw曾用名Clawdbot、Moltbot,因可整合多渠道通信与大模型能力、支持本地私有化部署、具备“持久记忆”和主动执行等特性,受到部分开发者和企业关注,在一些场景中被形象称作“养龙虾”。

原因——“信任边界模糊”叠加“可执行能力强”,放大配置失误后果。

业内人士分析,这类智能体工具在设计上强调持续运行、自动决策与任务编排,往往需要调用系统资源、访问外部接口或连接多种通信通道。

若部署者对其访问范围、密钥管理、对外暴露端口、插件与工具链权限等未作严格限制,系统的“信任边界”容易变得模糊:一方面,指令输入可能被诱导,触发越权操作;另一方面,配置缺陷可能为外部入侵打开通道。

一旦被恶意接管,攻击者可借助其自动化能力实施进一步渗透、横向移动或数据打包外传,使风险从单点故障演变为链式扩散。

影响——从“单机泄露”到“供应链风险”,对企业内网与数据安全形成现实挑战。

相较传统工具,这类智能体常被赋予更高的可操作权限,能够读取文件、执行脚本、调用接口、访问知识库,甚至连接业务系统。

在缺乏最小权限原则、访问控制与审计追踪的情况下,其行为一旦被操纵,可能造成客户信息、研发资料、业务配置等敏感数据泄露;也可能在企业网络中形成持久化驻留点,影响关键业务连续性。

对使用开源组件较多的单位而言,若在多个环境复制同一默认配置或镜像模板,还可能引发“批量暴露”,增加供应链层面的系统性风险。

对策——以“可控、可审、可退”为目标,补齐部署与运维短板。

安全业内建议,相关用户在引入与部署此类开源智能体时,应将其纳入统一的安全基线与变更管理:一是严格限制对外暴露面,关闭不必要端口与接口,启用身份鉴别与访问控制,避免默认口令与弱口令;二是落实最小权限与隔离策略,将其运行在受控的容器或沙箱环境中,限制文件系统、网络访问与系统调用范围;三是强化密钥与凭据管理,避免在配置文件中明文存储令牌、密钥与数据库口令,必要时引入专用凭据管控组件;四是建立审计与告警机制,对关键操作、外联请求、权限提升、异常任务链路进行记录与回溯;五是及时关注社区更新与安全通告,完善补丁管理和版本治理,并对第三方插件与依赖组件开展安全评估。

对涉及重要数据与关键业务的场景,建议先在隔离环境进行验证评测,通过安全评估后再逐步上线。

前景——智能化工具加速普及,安全治理需同步升级。

随着开源智能体与大模型应用不断扩展,“自动执行”“跨系统编排”等能力将进一步渗透到研发、运维、客服与知识管理等领域,安全风险也将从技术漏洞延伸到权限策略、数据边界与流程治理。

业内预计,未来相关产品将更强调默认安全配置、权限可视化与可审计性,行业也将推动形成更细化的部署规范与测评要求。

对企业而言,越早建立智能体工具的准入机制、风险评估与持续监测体系,越能在提升效率的同时守住数据与业务安全底线。

此次安全事件再次印证,技术创新与风险防控必须双轮驱动。

在数字化转型加速的当下,任何技术应用都不能以牺牲安全性为代价。

唯有构建起技术研发、部署应用、监管督导的全链条责任体系,才能真正释放智能技术的变革潜力,为数字经济发展筑牢安全基石。