当前,AI快速融入企业的研发、营销、客服等环节,但企业安全治理却面临一场"看不见的扩张";虽然不少机构已认识到需要建立AI治理体系、强化数据与合规边界,但实际落地时却陷入了"知道要做、却不知如何选"的困境。市场上各类AI安全产品层出不穷,能力差异大、成本各异,企业若缺乏系统评估,容易投入巨大却无法覆盖关键风险。 问题的根源在于两个上。一是生成式工具更新快、形态多,企业内部"影子AI"使用普遍。员工可能通过浏览器扩展、插件、个人账号或自带设备等途径调用外部模型,导致敏感数据外流、提示词注入、身份混用等风险层层叠加。二是传统安全产品仍依赖网络层可见性和"应用清单"的治理方式,面对浏览器侧面板、加密插件通道、隐身模式等新场景时存在盲区,难以触及关键行为发生点。 这种方法与技术的错位给企业带来三重压力。首先,风险识别滞后,无法及时发现敏感信息被输入、上传或被模型生成内容二次扩散。其次,管理成本不断攀升,追逐新应用清单容易陷入"永远在补漏"的循环,既影响工作效率又难以形成稳定制度。再次,采购决策的不确定性加大,部分供应商将"支持AI安全"作为附加选项包装,企业若仅以"是否支持"判断,容易被功能描述误导,后续落地还需付出额外改造成本。 为解决此问题,近日发布的《AI使用控制和AI治理解决方案评估RFP指南》提出了新的思路:以"交互"而非"应用"为治理锚点。这意味着把管控重点放在员工输入提示词、上传文件、触发调用等关键交互时刻,通过工具无关的方式实现一致性控制。相比之下,若继续围绕"应用程序"治理,面对高频出现的新工具将难以穷尽;而围绕交互环节建立策略,既不阻断业务创新,又能对数据与行为形成统一约束,更好地平衡安全与效率。 该指南并非简单的检查清单,而是为采购与选型提供技术框架与响应格式。它要求供应商不仅给出"是/否"结论,还需说明实现机制并提供参考依据,从而降低评估的主观性。指南采用多维度评分方式对解决方案进行量化对比,涵盖隐身模式下的识别能力、对新型AI原生浏览器的适配、同一会话中企业身份与个人身份的区分、非托管自带设备环境下的策略执行等关键能力。同时,指南将提示词注入等现实风险纳入考量,推动安全能力从"可见"升级到"可控、可证"。 业内普遍认为,随着大模型能力提升、智能体工作流进入生产环节,企业AI治理将从"是否使用"转向"如何安全规模化使用"。未来,交互级管控、数据分级与最小权限、可审计与可追溯、以及与合规要求协同的治理框架,将成为企业安全能力建设的重要方向。通过结构化RFP推动标准化评估,有助于形成更透明的能力对照与成本预期,促进市场从概念竞争转向可验证的技术与交付能力竞争。
AI的快速发展正在重塑企业安全治理的格局;从应用程序管控到交互行为防护的转变,既是技术方法的创新,也是安全管理思维的升级。通过采用结构化评估框架,企业可以在AI创新浪潮中找到安全与效率的平衡,既能运用AI的生产力优势,又能有效防范数据泄露等风险。这种科学、理性的治理方式,将成为企业在AI时代保持竞争力的重要基础。