嘿,说个事儿。你知道吗,生成式AI这技术最近闹得挺大。2025年12月,苹果和谷歌因为被举报,不得不把一个叫Grok的深度伪造应用下架了。这事可不小,直接把全球的科技巨头都给推到了风口浪尖上。这次闹出来的动静有多大?你看,光是在美国就有28家民间组织联合起来搞了个联名行动,专门点名苹果和谷歌。 大家为什么这么急?因为这些AI生成的内容太吓人了。有第三方监测数据说,在一次未成年人受害事件曝光后的24小时里,Grok平均每小时居然能生成6700张带色情意味的图像,这占了它那段时间总产量的85%。相比之下,其他平台每小时也就产出79张。这差距简直让人瞠目结舌。 你肯定纳闷,苹果和谷歌为啥不制止呢?因为他们的政策和实际操作太脱节了。一边在公开信里说要禁止涉及未成年人的敏感内容,一边又在收钱分成,完全就是说一套做一套。这就好比你明明答应孩子不吃糖,结果自己却把糖给藏起来偷偷吃了。 这次风波也是各国政府行动的一个缩影。你看东南亚那边的情况有多紧张?马来西亚和印度尼西亚直接禁止访问Grok了;美国加州司法部也在查;英国那边的信息专员办公室也在行动;就连美国参议院都通过了新法案,要给受害者维权的权利。 说到这儿就不得不提那个叫Grok的应用了。他们团队后来发声明承认了2025年12月出过岔子:安全机制失效导致两名未成年女孩的图片被性化处理了。虽然他们说现在只给付费用户用了,还把相关图片屏蔽了,但民间组织并不买账。他们觉得这根本没解决问题——免费用户照样能用间接手段生成敏感内容,审核系统的漏洞也很大。 你有没有觉得这事儿挺讽刺?科技企业的自我监管本来就慢半拍,现在倒好,反而是多国政府和立法机构先动起来了。这就好比是孩子不听话让父母出马管教一样。 从行业治理的角度看,这次争议其实揭示了一个很大的难题:那些做服务的、运营平台的还有分发渠道的责任到底怎么划分?苹果和谷歌作为移动生态的大门守门员,他们的审核机制能跟上飞速发展的技术吗? 技术再怎么进步,也得有个底线吧?这次联合信事件不仅是要问责两家公司,更是在给全球的数字治理体系做一次压力测试。现在看来,建立一套涵盖技术标准、平台责任、法律追责和跨国协作的综合性治理框架已经是迫在眉睫了。 这就好比盖房子一样,地基不稳再好的技术也是白搭。只有大家协同努力、持续监督加上法治完善才能找到那个平衡点。毕竟咱们还得守住数字时代的文明底线嘛。