开源AI智能体存在安全隐患 工信部提示防范网络风险

近期,工业和信息化部网络安全威胁和漏洞信息共享平台发布警示,开源智能体OpenClaw在部分实例中暴露出严重安全风险。

这一工具通过整合多通信渠道与语言模型技术,能够实现持久化运行和定制化任务执行,但其模糊的信任边界和自主决策特性,在权限控制不足或配置缺陷时,可能成为网络攻击的突破口。

问题分析显示,OpenClaw的潜在威胁主要集中在三方面:一是默认配置下公网暴露面过大,二是缺乏严格的访问审计机制,三是可能因恶意指令诱导执行越权操作。

此类漏洞若被利用,轻则导致敏感信息外泄,重则引发系统全面失控。

技术专家指出,此类风险源于智能体技术的快速迭代与安全防护的脱节。

一方面,开发者为追求功能扩展,往往弱化安全设计;另一方面,部分用户对私有化部署环境的安全管理存在盲区,未能及时更新防护策略。

针对上述问题,工信部提出分阶段应对建议:部署单位需立即排查公网访问权限,关闭非业务必需的端口服务;同时强化身份认证与数据加密措施,建立动态审计日志。

长期来看,需形成“开发-部署-运维”全链条安全标准,并定期开展渗透测试。

从行业视角观察,此次事件折射出新兴技术应用与安全保障的平衡难题。

随着智能体在工业控制、金融等关键领域的渗透,其风险传导效应可能放大。

未来,或需通过技术白名单、开发者安全认证等制度性安排,推动行业规范发展。

新技术带来效率提升,也会重塑风险形态。

开源智能体的价值在于开放与易用,但安全不能建立在“默认信任”之上。

只有把权限边界划清、把审计链路做实、把配置基线立住,才能让智能体真正成为生产力工具而非安全隐患源头,在创新与安全之间实现更稳健的平衡。