“OpenClaw”智能体迅速走红引发安全关切 专家提出分级授权等三项理性使用原则

随着数字化进程加快,具备“执行能力”的新一代智能技术正重塑行业。不同于传统主要用于对话交互的人工智能系统,这类技术通过连接底层操作系统,可直接完成文件处理、财务申报等具体任务。其核心架构包括渠道适配、智能解析、技能执行和记忆系统四个模块,使能力从“理解语言”延伸到“实际操作”。 但在快速普及的同时,涉及的安全风险也更加突出。由于实现功能往往需要获取较高系统权限,一旦存在漏洞或被恶意利用,可能引发远程控制、数据泄露等严重后果。监测数据显示,自今年2月以来已发现多起相关安全隐患案例,涉及系统文件误删、敏感信息外泄等问题。 网络安全专家表示,这类技术的风险主要集中在三上:一是权限过高,实际控制能力可能接近用户本身;二是安全设计不完善,关键信息保护机制不足;三是缺少可靠的紧急终止与兜底方案。在政务、金融等关键领域落地时,上述问题更容易放大。 针对这些挑战,专家建议采用分级管理:对新用户先行限制权限,通过沙箱环境隔离高风险操作,并建立实时监控机制。尤其在涉及敏感数据的场景中,应坚持人机协同,避免完全交由系统自主决策。目前,一些地方政府已开始探索智能技术应用规范,但全国统一的监管框架仍需更完善。 从长远看,技术创新与安全治理需要同步推进:既要支持有价值的技术探索,也要加快建立算法审计、伦理审查等配套机制。人才培养同样关键,应重点培育既懂技术、也懂安全的复合型队伍。

新技术带来的便利不容忽视,但越接近系统核心、越能替人“动手”,越需要守住边界与底线;与其在热潮中盲目追新,不如把规则和能力建设做扎实;让创新走得更远的,不是无限放大权限,而是可控、可信、可持续的安全治理。