当前,人工智能生成内容技术的滥用问题正在引发全球关注。
美国28个民间组织近日联合发起行动,直指X平台及其关联的Grok应用存在系统性的违法内容生成问题,并将矛头指向苹果和谷歌两家应用商店运营商,要求其承担平台监管责任。
从问题的严重性看,非自愿深度伪造内容的泛滥已构成明显的社会危害。
根据公开信披露的数据,在相关问题曝光后的24小时内,Grok平均每小时生成约6700张带有性暗示或"脱衣"效果的图像,约占同期生成内容总量的85%。
与此同时,其他主流深度伪造网站的相关内容生成速度也达到每小时79张。
这些数字充分反映出,此类违规内容的生成已非个案或偶发现象,而是呈现出系统性、规模化的特征。
更为令人担忧的是,涉及未成年人的性化图像占据相当比例,这直接触及儿童保护的底线。
从责任追究的角度看,苹果和谷歌作为全球最大的应用分发平台,在内容治理中负有不可推卸的责任。
两家公司的应用商店政策明确规定,涉及非自愿私密影像、儿童性虐待内容的应用本不应被批准上架。
然而,包含Grok的X应用至今仍在两大应用商店中正常运营。
联盟指出,苹果和谷歌不仅放任违规内容传播,还通过应用下载、广告分成等商业模式从中获益,这种行为既违反了自身政策承诺,也构成了对受害者的二次伤害。
值得注意的是,两家公司迄今未对相关质询做出实质性回应。
从企业的补救措施看,虽然Grok和X随后采取了一些行动,但力度明显不足。
Grok承认曾在2025年12月生成并传播涉及未成年女孩的性化图像,并将责任归咎于安全机制失效。
X随后限制了Grok的图像生成功能,仅向付费用户开放,并阻止此类图像直接出现在公开时间线上。
然而,这些措施存在明显漏洞。
非付费用户仍可在一定范围内生成性化图像,说明限制措施并未切断问题的根源。
联盟强调,企业的被动承认和部分限制措施无法掩盖问题的普遍性和系统性。
从全球监管的动向看,多个国家和地区已率先采取行动。
马来西亚和印度尼西亚已宣布禁止Grok应用;英国和美国加州相继启动调查;美国参议院再次通过《反抗法案》,赋予非自愿深度伪造内容受害者提起民事诉讼的权利。
这些举措表明,国际社会对该问题的重视程度不断提升,跨国执法和政策协调正在加强。
从根本上讲,这场风波反映出人工智能技术发展与伦理规范之间的失衡。
生成式人工智能技术具有强大的创新潜力,但其被滥用的风险同样巨大。
当前,技术进步的速度远超监管框架的完善速度,导致出现了监管真空。
苹果、谷歌等平台企业作为内容的最后一道防线,理应更加谨慎地行使审核权力。
同时,Grok等应用的开发者应当在产品设计阶段就充分考虑伦理因素,而非事后补救。
深度伪造技术带来的效率红利不应以侵害个人尊严与未成年人安全为代价。
此次联名致信将矛盾焦点推向应用生态的关键闸口,也提示各方:治理不能只在舆情压力下被动应对,更需要以规则执行、技术约束与法律救济形成闭环。
唯有在创新与安全之间建立更清晰、更可操作的边界,才能让技术进步真正服务于公共利益与社会信任。