OpenClaw安全风波敲响智能体应用警钟:从“防不当输出”转向“防越权操作”治理

过去两周,一款名为OpenClaw的开源AI智能体在市场迅速走红。它能够理解自然语言指令、自动操作计算机系统并独立完成复杂任务,很快成为现象级应用:用户排队体验,涉及的概念股连续涨停,社交媒体上“养龙虾”话题也被频繁讨论,市场对其期待高涨。然而热度背后风险同样突出。工业和信息化部网络安全威胁和漏洞信息共享平台紧急发布预警,指出OpenClaw在默认配置下风险极高。随后,安全社区披露编号为CVE-2026-25253的高危漏洞:攻击者只需诱导用户点击精心构造的链接,即可实现远程代码执行,进而完全控制受害者主机。金融监管部门随即向多家机构下发监管函,要求排查OpenClaw的使用情况。此事的意义不止于单一漏洞,它更像一个信号:人工智能安全的法律范式正在发生根本性变化。 两年前,业内讨论AI安全,重点多集中在模型是否会生成仇恨言论、泄露个人隐私或被诱导编写恶意代码。当时的AI更像需要严格约束的“实习生”,核心是避免“说错话”。但随着OpenClaw等自主智能体出现,AI的角色发生质变:它不再只是信息处理工具,而是握有系统权限、能自动执行操作、可直接访问核心数据库的“执行者”。法律风险也随之转向:从防范不当言论,转为防范越权操作。AI一旦具备执行能力却缺少有效约束,可能带来的损害将是物理级、系统级甚至金融级的。 从法律责任角度看,该转变带来三个层面的新风险。首先是自动执行能力的责任界定。过去若AI生成诽谤内容,责任往往指向内容审核机制缺失;但如今,如果AI在未经人工确认的情况下自动执行错误采购、误删生产数据库或进行未授权资金转账,性质已不再是“内容问题”,而是直接的侵权与合同违约。在OpenClaw事件中,不少用户为图便利关闭确认步骤,导致损失被放大。由此可见,应建立“分级授权与强制确认”机制:对资金流转、数据删除、代码部署等高风险操作,法律上应按“重大决策”对待,禁止AI全自动执行,必须保留人类数字签名确认。 其次是系统权限边界。过去AI安全更关注训练数据的合规性,而现在AI为了完成任务需要登录企业内部系统。如果权限过大,一旦模型被攻破或判断失误,就可能演变为系统性安全事件。OpenClaw暴露的远程代码执行漏洞,本质上就是权限控制失效的极端表现。这要求企业落实“最小特权原则”,让AI只获得完成特定任务所需的最低权限。这不仅是技术选择,也是一项法律义务:若因权限配置不当导致数据泄露或系统被接管,企业需承担相应法律责任。 第三是供应链与第三方风险传导。OpenClaw作为开源项目,其漏洞会迅速影响所有使用者。采用第三方AI系统的企业因此面临额外风险:一旦第三方系统出现安全问题,使用方可能遭遇监管处罚、民事赔偿甚至刑事追责。这要求企业在选型与部署AI系统时进行充分的安全评估与合规审查,并在合同中明确安全责任边界与分工。 从监管层面看,OpenClaw事件已引起政府部门高度关注。工信部门的预警、金融监管部门的监管函,显示监管框架正在加速调整。未来AI安全监管将不再局限于内容审核,而会延伸至系统安全、权限管理、应急响应等多个环节。这意味着企业需要更完善的AI治理体系,包括安全评估、权限管理、审计追踪与应急预案等。 对法律从业者和企业管理者而言,OpenClaw事件带来的启示十分明确:AI安全正在从“模型层”的单点问题,转向“系统层”的整体治理。相应地,法律框架也需要更新,建立适配自主智能体时代的责任制度、权限管理制度与监管机制,才能在发挥技术效率的同时,将系统性风险控制在可承受范围内。

从内容安全到行为安全,人工智能每一次能力跃升都推动治理体系同步重塑;OpenClaw事件像一面镜子,一上照见技术创新带来的新效率,另一方面也提醒人们:缺少约束的自动化执行可能引发系统性风险。在效率与安全的长期拉扯中,建立兼顾发展与规范的制度护栏,将成为数字时代绕不开的关键课题。