ai 时代,到底还能信啥?有一回,以色列士兵躲在墙后头哭的视频在x 上火了,说以军被伊朗

AI的时代,是不是眼见为实真的管用?出差的伴侣在视频里急得要死,非让转账不可;班级群里班主任那熟悉的声音一响,又是催着交钱。现在有了AI,普通人几分钟就能做出假得不能再假的东西。AI学会了模仿笔迹、复刻声音、合成面孔,这种技术一旦被坏人利用,你就是眼睁睁看着也得被骗。这让人心里直犯嘀咕:AI时代,到底还能信啥? 有一回,以色列士兵躲在墙后头哭的视频在X上火了,说以军被伊朗的火箭弹和无人机炸得很惨。这视频播放量一下子冲过了160万。后来德国电视二台一查,发现这就是个典型的AI生成产物。视频里士兵戴的徽章一会儿有一会儿没,上面的字根本不认识,全是乱码。好多网友也看出来了,制服样式、哭声音效还有枪械细节,跟真事儿差太远了。 现在这种生成工具进到新闻报道里了,专业的把关机制也都要受考验。就在2月那会儿,德国电视二台把一个驻纽约的记者给解雇了,因为他发回的报道里混进了一段用Sora做的假视频。画面角上还有Sora水印呢。德国电视二台为了这事赶紧给员工办培训课,好规范大家怎么用AI。他们总编辑贝蒂娜·绍斯滕说了:“新闻准则要是被忽视了,那是要坏大事的。” 这造假不光骗普通人的眼睛,连历史记忆也不放过。今年年初,达豪、布痕瓦尔德这些集中营的纪念机构和博物馆联合起来,给各大平台写信喊冤:别再让AI生成那些关于大屠杀的假东西了!德国历史学家伊丽丝·格罗舍克吐槽道:AI搞出来的黑白老照片和历史照片太像了——瘦骨嶙峋的人、铁丝网后头哭喊的孩子……可你细看就不对劲了。这些人长得都一模一样还挺漂亮。她说:“AI把纳粹受害者给美化了,把他们变年轻变好看了。” 这种虚假帖子会把纪念馆、档案馆的公信力给毁了。还有比这更危险的吗?还有AI能伪造“多数人的意见”。最近有个国际团队在美国《科学》杂志上说了个事儿:数字操控又上了个新台阶。以前散播假消息的就单个账号在那儿喊,现在是AI集群在装真人玩互动、回应别人、还能看脸色行事。它们就在那里互相附和、互相强化,最后弄出个根本不存在的“社会共识”。 德国康斯坦茨大学的达维德·加西亚解释说:这种AI集群就是由一堆AI智能体组成的大机器。它们有个稳定的身份和记忆,能模仿人说话做事。有时候围着一个目标一起干活儿;有时候也得跟着实时的事儿和用户反馈去调整怎么说。它们跟以前那种笨笨的僵尸网络可不一样,那些都很容易认出来;可这种集群能跨平台跑。 加西亚觉得真正的风险不在那一两条假消息上,而在于操纵者能靠大模型造出一个“假社会”。他说:“这些AI集群能慢慢悠悠地把一种立场推成被大家广泛支持的样子。” 这么一来就会影响大家的想法甚至改变社会规范。当很多看似独立的声音都在喊同一句话的时候,那种大家都同意的错觉就出来了。 面对这种能伪造“社会共识”的威胁,大家开始行动了。德国人工智能研究中心(DFKI)和莱茵兰-普法尔茨州政治教育中心搞出了个深度防伪检测工具正在测试。 跟以前只盯着像素上的破绽不同,这个工具会把图像和音频取证一遍,再结合上下文看看对不对得上。后台的AI智能体会同时去网上搜资料还会调用德新社的事实核查库来帮忙判断。 只需要点两下鼠标就能把怀疑的图片发给系统让它分析一下:这东西是不是假的或者被篡改过了?系统会告诉用户可能性多大以及是怎么回事。 莱茵兰-普法尔茨州政治教育中心主任伯恩哈德·库卡茨基说了:“虚假信息现在到处都是公民每天都能碰到被操纵的内容。” 所以分辨和核实信息的能力特别重要。”