把AI做成假货,让人把真当假,这事儿到底有多吓人?就在柏林的3月19日,新华社记者褚怡跟你唠唠这个。现如今,哪怕普通老百姓,拿几分钟工夫,也能整出一堆看着跟真的似的玩意儿,把AI用在模仿笔迹、复刻声音、合成面容这些方面。要是这技术被坏人拿去骗钱,你就算亲眼看着,也得把它当回事儿。咱们不禁要问,AI时代,眼见还能是真的吗? 这回出的乱子还真不小。最近X上有个视频火了,讲的是以色列士兵被伊朗无人机炸得躲在墙后哭。有人拿它凑热度,说以军挨揍了。视频播放量硬是冲到了160万。结果德国电视二台一查,发现这是个典型的AI生成的假货。你看那士兵身上的徽章忽隐忽现,上面的字全是乱码;网友还发现制服、哭声和枪械细节全跟真的不一样。 这玩意进了新闻报道里,专业的媒体人也得跟着倒霉。2月份德国电视二台就干了这么件事儿:他们紧急把驻纽约的一名记者给解职了。因为这人发回的关于美国移民执法局行动的报道里,混进了一段用视频生成模型Sora搞出来的假视频。画面角上还挂着那个Sora的水印呢。这事儿一出,电视台赶紧给员工开强制性培训课,教大家怎么在新闻里用AI工具。“要是不把新闻准则当回事儿,损害可就大了,”电视台总编贝蒂娜·绍斯滕说得挺严肃,“这关系到公信力。” 最要命的是,AI还能把假历史给弄进人们的脑袋里。今年年初,达豪、布痕瓦尔德还有大约30家德国集中营纪念机构联合发了封公开信。他们让社交媒体平台别手软,要把用AI搞出来的大屠杀假内容给狠狠打压。德国历史学家伊丽丝·格罗舍克说,那些AI生成的图像跟照片长得太像了——黑白色调、骨瘦如柴的人、铁丝网后的孩子……可你凑近了看就不对劲了:这些人长得一样高,还都很漂亮。“这就是美化历史嘛,”格罗舍克很生气,“把受害者变得年轻漂亮来骗取大家的同情心。”这种伪造的帖子会毁了纪念馆的权威性。 比伪造内容更可怕的是,AI还能伪造出“大多数人的意见”。一个国际团队在《科学》杂志上写文章说:数字操控已经到了新阶段。以前是单个账号在造谣,现在是伪装成真人的AI集群在搞破坏。它们能互动、能回应真人、能跟着情绪走,而且还会不断强化彼此的话头,硬是造出一种“大家都同意”的假象来。 德国康斯坦茨大学的达维德·加西亚给解释了一下。这些AI集群其实是由一群AI智能体组成的。它们有身份有记忆,能像人一样行动。既可以为了某个目标一块干活,也能根据实时情况调整说话的方式。这玩意儿跟以前的僵尸网络可不一样。以前那些机器人行为太死板好认;现在的集群可以跨平台跑,还能互相呼应着把影响力放大。 加西亚觉得最危险的地方不在这里:“操纵者”可能会借助大模型造出“另一个社会”。他说:“这些集群能通过缓慢而持续的过程制造假象,让人觉得某个立场已经得到了广泛支持。” 它们影响大家的看法甚至改变社会规范,“当很多看似独立的声音都在说同一件事的时候,多数派的错觉就形成了。” 面对这种能伪造“社会共识”的新威胁,专家们已经行动起来了。他们想用技术手段把这些造假行为给识别出来。加西亚觉得得用模式识别技术去查查内容传播中有没有异常同步或者跨平台联动的情况。 除了技术手段,还得建立监督机制。加西亚建议多观察这些智能体在平台上是怎么影响讨论的。“越早揭露出来越好,”他说,“这样就不容易把原本多样的意见伪装成单一的共识了。” 德国人工智能研究中心(DFKI)和莱茵兰-普法尔茨州政治教育中心最近搞出了一个正在测试的工具——深度防伪检测工具。这玩意儿不光能看像素是不是对的上,还会结合上下文做交叉核验。 后台的AI会并行检索网络信息和数据资源库辅助判断。比如德新社事实核查团队提供的数据也在库里头呢。“用户只要点两下就能转发可疑图片到系统里去,”DFKI在新闻公报里说,“系统会分析材料是不是AI做的或者被篡改过的。” 莱茵兰-普法尔茨州政治教育中心主任伯恩哈德·库卡茨基表示:“虚假信息现在太普遍了。”“辨别和核验信息的能力太重要了,”他说,“公民每天都可能看到被操纵过的内容。”