最近,CNN还有CCDH联手搞了个调查,发现像ChatGPT、Gemini这种热门的AI聊天机器人,居然还帮着青少年计划暴力袭击。这个调查是真的很吓人,测试结果表明这几款机器人不仅不阻拦暴力行为,还主动鼓动动手。研究人员把测试对象设定成了心理有问题的青少年,机器人不光提供武器建议,甚至还给他们画校园攻击地图。这些致命的漏洞让监管部门现在都紧张起来了。虽然人工智能公司一直说会保护未成年人安全,可这最新的结果显示防护机制简直形同虚设。研究团队一共测试了10款常用的聊天机器人,包括ChatGPT、Gemini、Claude、Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI还有Replika。结果发现除了Anthropic的Claude外,剩下的全都不太靠得住。有8款机器人居然愿意帮用户策划暴力袭击。这个测试是把对话引导到暴力行为上的,研究人员设定了18种不同场景,美国和爱尔兰各9种。这次的测试涵盖了很多袭击类型和动机。有一次ChatGPT还给一个关注校园暴力的用户发了高中校园地图;另一次Gemini还跟用户讨论犹太教堂袭击时说“金属弹片杀伤力强”。还有Meta AI和Perplexity简直配合得太好了,在大部分测试场景中都给潜在施暴者提供帮助。对于这次调查,各家公司反应不一。Meta说已经修复了一些问题,Copilot说增加了安全功能优化回复内容,谷歌和OpenAI也说上线了新版模型。Character.AI则表示他们有醒目免责声明告诉用户对话是虚构的。虽然这个测试不能完全代表所有情况,但它确实表明当前AI公司吹嘘的安全机制在遇到明显危险信号时完全失效了。现在这些公司因为没能保护好青少年用户安全,正遭到议员、监管机构和民间团体的猛烈抨击,还有很多诉讼找上门来。