(问题)开源智能体迅速普及,把“更容易上手”和“更复杂的风险”同时带到公众面前。OpenClaw等工具通过开放代码和组件化能力,降低了开发与部署难度,推动应用创新的同时,也让自动化内容生成、自动化操作和自动化决策更容易被滥用。围绕“智能体是否会失控”“风险将如何演化”等问题,张亚勤在有关访谈中指出,安全必须前置,不能等到事故发生后再补救。 (原因)一是能力跃迁带来风险叠加。张亚勤表示,模型具有自主学习、自主进化的特征,能力提升速度快于传统软件迭代,这也意味着攻击手段可能同步升级。二是合成内容激增正在改变信息环境。他指出,互联网上由模型生成的内容占比快速上升,辨别真伪的成本随之提高,社会对“可信信息”的基础被削弱。三是运行机理的“黑箱性”仍是难题。大模型在不少场景中体现出强泛化能力,但其决策并不总能对应可验证的因果链条,更多依赖统计相关;输出具有概率性,即便整体准确率很高,也可能在小概率情况下出现高代价错误。四是开源与工具化更降低门槛,使“规模化攻击”更易落地:从素材采集、脚本生成到自动执行,链条更短、速度更快。 (影响)目前风险首先集中在数字空间,常见表现包括身份冒用、金融欺诈和舆论操纵等。张亚勤提到,深度伪造已被用于“远程会议”“语音指令”等场景,出现过企业财务人员因伪造形象与声音而误转资金的案例,说明风险并非停留在概念层面。更需要警惕的是风险向物理世界外溢:当智能体与无人驾驶车辆、无人机、工业控制系统、电网、核电站等关键基础设施深度耦合,一旦遭恶意操控或出现不可预期行为,影响可能从“信息损失”升级为“系统性中断”,并引发连锁反应,冲击公共安全与社会秩序。 (对策)受访专家建议从“划红线、建边界、强治理、重对齐”四个方向同步推进。其一,尽快明确不可触碰的安全红线,对高风险应用设定准入条件与责任边界,加强对攻击性能力的限制与审核。其二,建立可控的运行边界,在模型、数据、工具调用与执行权限等环节引入分级授权、最小权限、可审计日志、异常检测与紧急熔断机制,确保智能体在可预测、可回退的范围内运行。其三,加强关键领域的安全评测与演练,将对抗测试、压力测试和供应链安全纳入常态化要求,重点防范“数据投毒”“提示注入”“伪造身份”“越权执行”等新型攻击路径。其四,推动价值观与合规对齐,强调数据来源合法合规,训练与部署过程遵守法律法规与行业规范,同时降低被不法分子利用的空间。张亚勤表示,国际层面也在推进风险对话与协作机制,当务之急是形成基本共识与治理框架,应对跨境传播与跨域攻击带来的外部性。 (前景)业内普遍认为,智能体将成为提升产业效率的重要工具,在政务服务、企业运营、科研助理诸上空间广阔。但随着能力向“可执行、可联动、可自治”演进,治理也需要从传统网络安全扩展为“模型安全+系统安全+社会治理”的一体化安排。面向未来,关键在制度与技术两条线同时发力:既要支持创新与开源生态发展,也要通过更严格的风险分级、可信评估与责任追溯体系守住安全底线,避免“小概率”演变为“大事故”。
人工智能如同现代社会的“普罗米修斯之火”,照亮前路的同时也可能带来灼伤。面对这场深刻的技术变革,只有保持必要的敬畏、推动更广泛的国际共识,才能在创新与安全之间找到可持续的平衡。历史反复证明——重大技术进步的最终价值——取决于人类驾驭它的智慧与责任。