真的把人吓一跳!2026年AI技术又在安全领域掀起了一场巨大的波澜。Anthropic的研究员Nicholas Carlini,在90分钟内利用Claude模型,居然挖出了GhostCMS和Linux内核的好几个高危漏洞!GhostCMS这个号称很安全的开源内容管理系统,竟然被他发现了SQL注入漏洞,无身份验证的攻击者就能通过内容API的slug过滤器把管理员API密钥偷走!还有那个Linux内核,Claude居然在里面找到了几个能远程利用的堆缓冲区溢出漏洞。而且最让人震惊的是,一个存在于NFSV4守护进程里的漏洞,从2003年起就一直没被发现!这简直太可怕了。过去六个月前,AI模型还做不到这样复杂的安全审计呢,现在它们能力太强了,甚至比人类专家还厉害。Carlini把ClaudeCode部署在权限严格的虚拟机里,让它去CTF竞赛里找漏洞。结果Claude不仅写了高质量的报告,还能对特定文件深入检查。通过这种方法,Claude Opus 4.6在开源软件库中找到了500多个高危安全漏洞!这次GhostCMS真的慌了,这可是它从诞生以来第一次出现这么严重的安全问题。Nicholas Carlini感慨地说,以前他从没在Linux内核里找到过漏洞,但Claude轻轻松松就搞定了。AI技术进步这么快带来的威胁也很大!攻击者也能利用同样的技术快速发现并利用漏洞,让防御的时间窗变得很短很短。Carlini警告说,以后漏洞从发现到被利用可能只要几个小时。我们现在正处于关键的窗口期啊!安全社区必须重视大模型的安全性问题。他呼吁大家共同努力寻找解决方案,来应对越来越严重的安全威胁。大语言模型的能力正在飞速增长呢!未来的安全防护工作肯定会面临巨大的挑战与机遇吧?