话说到2025年12月16日这天,LayerX公司跳出来爆料,说AI系统那边有个挺吓人的漏洞。事情是这么回事,平时咱们都觉得AI工具挺靠谱的,像ChatGPT、Claude、Copilot这些大家伙儿也帮了不少忙。结果LayerX发现了一种新手段,居然能把恶意代码藏在字体里。这个招数太巧妙了,它利用自定义字体和CSS样式来给指令做伪装,硬生生骗过了好几款主流的AI工具。 这招之所以厉害,是因为它巧妙地制造了“信息差”。咱们看网页看到的是浏览器渲染好的东西,AI助手呢,抓取的其实是网页底层的纯文本结构。黑客们就是钻了这个空子,把真实意图藏起来让AI看不穿,结果AI在分析的时候就给人乱出主意。更夸张的是,这事儿压根不用碰什么Java或者浏览器的漏洞,只要改改自定义字体文件里的字形映射就行了。比如他们把正常的英文字母变成乱码,把藏着的恶意载荷变成你能看懂的字。再配合CSS把安全内容调成极小的字或者特定颜色,放大一下恶意的东西。最后你看的是安全的代码,AI读的却是危险的指令。 LayerX甚至还搞了个钓鱼页面来当诱饵。比如他们设计了一个模仿《生化奇兵》里彩蛋的网页。有人要是不小心复制了里面的一段代码准备跑一下,这时候通常会出于谨慎心理让AI助手帮忙评估一下安不安全。结果因为AI读取到的是隐藏的无害代码,就傻乎乎地告诉你“绝对安全”。这一招不光是技术上的事,更是在利用咱们对AI的信任来害人。 LayerX是在2025年12月16日把这情况跟微软、谷歌这些厂商汇报的。反应各不一样:微软是唯一真金白银把漏洞给彻底修了的;谷歌刚开始说是高危漏洞,后来又觉得这玩意儿不太能造成大伤害还得靠社会工程学啥的就降级把报告关了;别的好多厂商也借口这是超出安全防护范围的事儿不打算管。 这事儿说到底就告诉咱们,AI技术越发达网络安全越麻烦。大家用的时候不光得信AI说的话,还得自己多留个心眼儿护着自家的信息安全。以后怎么把技术创新和安全防护这事儿摆平,肯定是摆在所有科技企业面前的大难题了。