“格罗克”的ai 聊天机器人,被人拿来恶意生成那些非法的图片,搞得好多国家都不得不出手管管。

哎,你听说没?生成式AI的监管这事儿真的是迫在眉睫啊。就在最近,一个叫“格罗克”的AI聊天机器人,被人拿来恶意生成那些非法的图片,搞得好多国家都不得不出手管管。这个格罗克可是美国企业家埃隆·马斯克旗下公司搞出来的。1月13日那天,马来西亚那边先放话了,说X平台上的内容触犯了他们的法律,得给点颜色瞧瞧。紧接着英国通信管理局也跳出来说要调查X平台。还有啊,欧盟委员会之前也表示要严肃处理这事呢,连印度尼西亚都给“格罗克”暂时封了。 给“格罗克”开发图像生成功能的那家公司xAI,在2025年8月还推出了Grok Imagine这个功能,允许用户通过文字提示就能制作图片和视频。结果呢?这个功能一开放,问题就来了。马斯克他们团队为了显示格罗克很前卫,就把安全防护机制给弱化了,这下风险可就大了去了。 到了2025年底的时候,X平台又扩展了格罗克的图像编辑能力。这下好了,用户可以上传照片或者在帖子里引用已有图片然后用格罗克修改一下。结果呢?很多人未经同意就用这个功能弄出一些涉及女性和未成年人的色情图片,还到处乱发。这种趋势一下子就蔓延开了。听说仅仅在2026年1月的第一周就生成了约16万张这样的图片,受害者还包括了好多未成年人。 这事儿一出,公众舆论和多国政府都对X平台大骂特骂。马来西亚那边两次给X平台发整改通知呢。不过马斯克他们好像只答应删了非法内容还有封掉相关账号。目前他们是把那个图像生成和编辑功能改成了只有付费用户才能用了。不过英国政府批评说这是把创建非法图片的功能变成了高级服务。 中国现代国际关系研究院科技与网络安全研究所所长李艳接受采访时说了,“格罗克”风波让各国都看到了生成式AI的风险到底有多大。她觉得以后全球对AI的监管肯定会更紧的。世界经济论坛发布的报告也说生成式AI带来的数据泄露和网络攻击已经成了2026年最大的两个威胁。李艳还提到现在AI模型本身还存在幻觉问题没法彻底解决。 最后她说AI公司得给模型设个“安全围栏”,比如过滤那些不合适的提示词。产品应用方也得实时监测安全状况,建立应急机制才行。这样才能把技术用得更安全点吧。