美以军事行动引发虚假内容泛滥 美国和以色列2月28日对伊朗发动袭击后,社交媒体成为公众获取信息的主要渠道。
然而,这一时期也成为虚假视频大规模传播的温床。
据调查,一段显示导弹击中以色列特拉维夫并引发爆炸的视频被超过300个帖子引用,在各平台累计转发数万次。
另一段AI生成的迪拜哈利法塔起火视频在当地民众高度担忧期间广泛传播,观看量达数千万。
此外,AI生成的卫星图像也大量出现在网络上。
这些虚假内容不仅混淆视听,更成为部分创作者的牟利工具。
技术门槛降低催生新型信息乱象 虚假视频泛滥的根本原因在于生成式技术的快速发展和广泛应用。
澳大利亚昆士兰理工大学数字媒体专家蒂莫西·格雷厄姆指出,过去制作逼真视频需要专业知识和复杂工具,而如今只需数分钟即可完成,制作以假乱真的内容几乎已无门槛。
生成式AI专家亨利·艾德尔表示,当前可用的AI工具数量空前,能创作各种高度逼真的虚假内容,这些工具的普及程度、便捷性和低廉成本前所未有。
社交媒体平台X的数据显示,传播此类AI生成视频的账号中99%是为了获取经济利益。
这反映出平台变现机制与虚假信息传播之间的深层关联。
为应对这一问题,X平台宣布若创作者发布AI生成武装冲突视频时未做标明,将暂时取消其变现计划资格。
然而,这一措施的实际效果仍需观察。
虚假信息对信息生态造成深层伤害 虚假视频的大规模传播对信息生态造成多方面损害。
牛津互联网研究院伊朗问题专家马赫莎·阿里马尔达尼指出,这类虚假内容严重损害公众对网络信息的信任,使记录和验证真实证据变得更加困难。
在国际冲突背景下,虚假信息的传播可能加剧社会焦虑,甚至影响公众舆论和政策认知。
更值得关注的是,虚假视频的识别难度不断上升。
英国调查显示,社交媒体平台X上的用户向平台自带的AI聊天机器人求证某段视频真伪时,该机器人多次坚持认为该AI视频是真实的。
这表明即使是平台自身的技术工具也难以有效甄别虚假内容,问题的复杂性超出预期。
平台治理面临结构性困境 面对虚假信息泛滥,许多社交媒体公司声称正在调整审核检测系统以应对AI生成内容的传播规模与速度。
然而,专家普遍认为这个问题没有简单的解决方案。
格雷厄姆指出,更深层的问题在于,以互动和流量为导向的变现机制与准确信息之间存在根本性矛盾。
目前没有平台能完全化解这一矛盾,这种结构性困境可能长期存在。
这意味着,仅依靠技术手段或平台自律难以根本解决问题。
需要在法律监管、平台责任、用户教育等多个层面形成合力,建立更加完善的信息治理体系。
当技术革新速度远超社会规范建立进程,这场关于真实与虚假的博弈已超越单纯的内容审核范畴,演变为数字时代的基础性挑战。
在军事冲突等高风险情境下,虚假信息的破坏力可能产生现实后果,这要求技术开发者、平台运营方与监管机构形成协同治理网络。
如何在不扼杀技术红利的前提下守护信息真实性,将成为检验数字文明成熟度的重要标尺。