开源智能体安全风险引关注 专家呼吁强化部署规范防范数据泄露

作为一款开源AI智能体,OpenClaw近期在科技圈迅速走红。

与传统聊天机器人仅能进行对话交互不同,OpenClaw具备自主规划、主动执行的能力。

用户通过自然语言指令,该系统可自行分解任务步骤,调用浏览器搜索、数据分析、文件处理等多种功能,最终生成完整的工作成果。

这一特性使其被业界称为"能动手的数字员工",标志着人工智能应用从被动对话向主动执行的重要转变。

OpenClaw的快速普及有其现实基础。

该项目已成为代码托管平台GitHub历史上增速最快的开源软件,仅用四个月时间就获得25万颗星标,超越了Linux和React等经典开源项目。

春节前后,字节跳动旗下火山引擎、阿里云、腾讯云等主流云服务商纷纷推出了OpenClaw的云端运行服务,进一步降低了用户的使用门槛。

由于本地部署环节复杂,国内社交平台甚至出现了专业的代装服务,反映出市场对这一工具的强烈需求。

然而,应用的火热背后隐藏着不容忽视的安全隐患。

工业和信息化部网络安全威胁和漏洞信息共享平台近期监测发现,OpenClaw在部分实例的默认配置或不当配置情况下存在较高风险。

这一问题的根源在于该系统的架构特性。

OpenClaw通过整合多渠道通信能力与大语言模型,构建具备持久记忆和自主决策能力的定制化助手,可在本地私有化部署。

正是这些强大的功能特性,在缺乏有效防护的情况下,也成为了潜在的风险源。

具体而言,OpenClaw存在的主要安全隐患包括信任边界模糊、权限控制不足、审计机制缺失等问题。

由于系统具备持续运行、自主决策、调用系统和外部资源等特性,在配置不当的情况下,攻击者可能通过指令诱导、配置缺陷或恶意接管等方式,促使系统执行越权操作,进而导致敏感信息泄露、系统被控制等严重后果。

这类风险的危害程度取决于系统所处的网络环境和所能访问的资源范围。

为防范潜在的网络安全风险,工业和信息化部建议相关单位和用户在部署和应用OpenClaw时采取系列防护措施。

首先应充分核查系统的公网暴露情况,确保不必要的外部访问接口已关闭。

其次要完善身份认证机制,确保只有授权用户能够访问系统。

同时应建立完善的访问控制策略,限制系统对敏感资源的调用权限。

此外,对传输和存储的数据应进行加密保护,并建立安全审计机制以便及时发现异常行为。

用户还需持续关注官方发布的安全公告和加固建议,及时更新系统版本。

从更广层面看,OpenClaw的安全问题反映了开源AI工具快速发展与安全防护之间的平衡问题。

一方面,开源模式的开放性和灵活性推动了技术创新和应用普及;另一方面,这种开放性也要求用户和部署者具备更高的安全意识和防护能力。

随着AI应用从实验室走向生产环境,安全防护的重要性日益凸显。

业界需要在推动技术创新的同时,建立更加完善的安全标准和最佳实践指南,帮助用户在享受新技术便利的同时有效规避风险。

技术每一次从“能说”走向“能做”,都意味着效率的跃升,也意味着风险边界的扩大。

把智能体真正用好,既要鼓励开源创新与应用普及,更要把安全能力前置到设计、部署与运维全流程之中。

只有以规则、机制和责任共同筑牢底线,才能让“会执行”的新工具在可控轨道上释放更大价值。