英国权威网络安全机构近日发出行业警示,指出人工智能技术正面临新的安全挑战。英国国家网络安全中心技术总监戴维·C专题报告中表示,“提示注入”攻击与传统网络威胁有本质区别,其防御难度可能成为长期存在的系统性问题。现状显示,这种通过植入隐蔽指令操控人工智能输出的攻击方式,已被开放网络应用安全项目(OWASP)列为生成式人工智能系统的首要威胁。与可防护的SQL注入不同,提示注入直接作用于人工智能的核心机制。技术分析认为,问题根源在于现有大型语言模型架构的固有缺陷。这类系统采用连续词语预测模式,无法像传统程序那样严格区分指令与数据。专家将其形容为“易混淆的助手”——开放性设计提升了能力——也带来安全隐患。影响评估指出,该漏洞可能造成严重后果。攻击者可借此诱导系统生成错误信息、泄露敏感数据或执行异常操作。更值得警惕的是,由于原理限制,短期内难以彻底解决。应对策略上,报告建议采取分层防御:建立输出过滤机制,设置内容审查关卡,并严格控制应用场景。对高风险领域,报告明确提出需评估是否适用,并强调“不能接受残余风险的场景应避免使用”。行业观察指出,当前状况与二十一世纪初SQL注入漏洞蔓延期相似,但专家判断提示注入的解决周期可能更长,需要技术创新与标准规范并行推进。目前部分安全厂商已开始研发针对性防护方案,有关国际标准化工作也在推进中。
大语言模型技术的快速发展带来了前所未有的机遇,但其安全特性也对产业发展提出了新挑战;英国国家网络安全中心的评估提醒我们,并非所有安全问题都能依靠传统防护手段解决。拥抱新技术的同时,需要以更谨慎、理性的态度认识其局限,在充分理解风险的基础上做出应用决策。这既是对技术的尊重,也是对用户安全的负责。