最近在上海浦江举办的AI学术年会上,阿里巴巴和上海人工智能实验室联手搞了个大动作。他们把《守己利他:智能时代做负责任的技术》这份白皮书给推了出来,告诉大家AI虽然能力强,但必须得是安全的。这已经是阿里连续第四年在人工智能治理这块儿发成果了。 薛晖说,现在全球AI正从能“说”变成能“干”,风险也跟着暴露出来。为了保证“很能干”同时也“很安全”,阿里把安全基因给注入到从芯片到应用的全栈体系里,从源头上就把好关。他们还坚持开源开放,把内部验证过的技术拿出来和大家共享。 张荣在提到智能体安全时打了个比方,说如果用户自己DIY智能体,就像把保险箱放在家门口,安全难以保证。反倒是Qoder、MuleRun这类封装好的产品,因为有内置的安全机制,整体更让人放心。 针对这些风险,阿里围绕全栈能力搞了个立体化的防护体系。核心策略是从源头提升大模型的内生安全能力,再加上多层系统级围栏。因为工具调用和代码执行是最容易出事的地方,高度依赖底层模型的AI Coding能力。 所以他们重点加强了千问模型在编程场景下的原生安全。用了阿里20多年积累的经验和千万级真实漏洞样本来训练模型。这些语料在训练过程中被深度融入进去,还经过了多轮对齐。现在千问在权威的SecCodeBench评测里代码安全性稳居开源首位。