问题——从“内容风险”转向“行为风险”,企业安全边界面临重构。随着大模型与自动化技术融合,AI系统的能力已从生成文本、图像,延伸到自主访问数据、调用外部工具、触发工作流并执行任务。相应风险也不再局限于不当内容输出、提示词注入等传统问题,而是演变为“智能体在生产环境中能做什么、会被诱导做什么”的行为安全挑战。企业将智能体引入客服、运维、财务、研发等流程后,攻击面随之扩展到智能体工作流、委托操作链条以及非人类账号的访问路径。若缺少有效管控,可能导致敏感信息外泄、越权调用、业务中断甚至合规风险。 原因——三重变化叠加,推动安全体系从“模型护栏”走向“全生命周期治理”。一是上云与数字化持续推进,数据与工具分布在多个系统和权限域中。为提升效率,智能体往往被授予更广的访问权限,风险敞口随之扩大。二是智能体具备“链式执行”特征,一次指令可能触发多步推理与多系统联动,传统以边界防护或单点审计为主的方式难以覆盖全链路。三是AI应用迭代加快,从原型到上线周期缩短,企业常常来不及完成与传统软件同等强度的安全评估与持续验证,导致“上线即暴露”的问题累积。业内因此开始将重点从静态规则与模型层护栏,转向运行时行为的可视化、决策与阻断能力。 影响——安全治理能力将成为智能体规模化落地的关键门槛。对企业而言,缺少统一的安全控制平面会放大“影子应用”增长,数据在不同应用间流转难以追踪,不仅影响合规,也会抬高事后处置成本。对产业而言,智能体能力越强,越需要可证明的安全机制与审计链路,否则信任缺口将拖慢其在关键领域的应用节奏。对监管与合规环境而言,跨境数据、个人信息保护、关键基础设施安全等要求持续收紧,企业需要更可验证的技术手段支撑内控与审计,以应对不断升级的合规压力。 对策——统一控制平面、运行时决策与持续对抗测试并举。此次发布的AI Defense Plane定位为统一的AI安全控制平面,强调在企业使用AI技术的连接、部署、运行环节提供可扩展的防护能力。据介绍,该方案基于其AI安全平台,并整合ThreatCloud AI等能力与涉及的技术积累,覆盖AI执行全生命周期的发现、治理、可观测性、运行时管控与持续验证。其核心为AI原生安全引擎,主打快速响应与多语言自适应防护,力求在高并发业务场景中实现“可见、可控、可追溯”。 从功能模块看,方案聚焦三类典型场景:一是员工侧AI安全,强调对员工使用各类AI应用的可见性与防护,降低敏感数据在已批准与未批准工具中的泄露风险,针对企业常见的“工具扩散、数据外流难监测”问题提供管控。二是AI应用与智能体安全,面向嵌入业务流程的应用与智能体系统提供发现与治理,帮助企业识别AI部署位置、可访问的数据与工具及其行为方式,为最小权限、策略落地与审计提供依据。三是AI红队协作,通过对提示词、推理路径及智能体行为开展持续对抗测试,在从原型走向生产的过程中提前暴露漏洞,推动从“上线前一次性评估”转向“上线后持续验证”。业内观点认为,随着智能体能够查询基础设施、触发工作流并与敏感数据交互,红队测试正从可选变为必选,关键在于持续发现可被操控的路径与失效的控制点,并据此快速修补与迭代。 前景——智能体安全将走向平台化与标准化,企业需同步完善治理体系。随着智能体应用进入规模化阶段,安全投入将从单点产品采购转向平台能力建设,重点包括:建立统一的资产与权限视图,将安全策略嵌入工作流,强化对非人类身份与委托链条的管理,形成可审计的证据链与持续验证机制。同时,企业也需在组织层面完善治理:明确智能体使用边界与责任划分,推动研发、运维、合规与业务协同,建立覆盖上线前评估、上线中监控、上线后复盘的闭环流程。技术与管理配合,才能在效率与安全之间形成可持续的平衡。
智能体带来的效率提升正在改变企业生产方式,也放大了“可执行能力”背后的风险外溢。面对从模型到业务链路的攻击面扩张,安全治理需要从事后补救转向体系化建设:既要让企业看得见智能体在做什么,也要管得住它能做什么、做得是否正确。将运行时管控、持续验证和责任边界纳入统一治理框架,企业才能在加速创新与守住安全底线之间取得更稳健的平衡。