我国学者发布生成式技术虚假信息治理报告 提出“四维协同”应对方案

问题:虚假信息传播方式正剧变。生成式技术的普及使谣言不再是简单的"编造一条假消息",而是形成了一套可重复、可规模化的运作流程:从批量生成内容、包装伪装,到投放种子账号、借助推荐算法放大,再到被识别后迅速更换话术与素材进行迭代对抗,整个环节形成闭环。研究团队在中英文语境的实证分析中,将这类事件定义为"内容失实且技术在生成或传播中发挥关键作用"的可审计事件,强调应当能被追溯、能被取证、能被复核。 原因:驱动这个风险抬头的因素至少有五个。首先,生成成本大幅下降,文本、图像、音视频等内容可以批量制作;其次,多模态伪造技术日趋逼真,普通人更难识别;再次,内容可精准定制,能够针对特定人群、地区和议题"精确投放";第四,某些平台的推荐机制对高情绪、高冲突内容形成激励,加速传播;最后,自动化账号与协同网络的参与让少量内容也能快速引发声量。 基于这些认知,研究提出治理必须"可落地"。一上建立生成方式、议题主题、传播渠道的三维分类框架;另一方面在政治选举、公共健康、金融企业等高风险议题,以及社交媒体、即时通讯、音视频伪造等重点渠道上,明确取证点与识别线索,为实战处置提供工具箱。 影响:这类谣言的外溢效应正在增强。一旦结合推荐算法和跨平台迁移,传播速度更快、覆盖面更广,容易造成公共认知偏移。在公共事务领域可能干扰判断、引发极化;在公共健康领域可能引发恐慌与抢购,干扰防控秩序;在金融企业领域可能造成市场波动、品牌受损。 传统的"逐条核查、逐条辟谣"模式面对规模化、迭代式的内容攻势,已显得力不从心。响应速度与资源投入难以匹配,必须从单点纠错转向体系治理。 对策:研究针对"可预警、可分级、可评估"目标,提出了内容、主体、传播、受众四层指标体系,用于风险监测、分级处置和治理评估,以"强证据优先、多源印证"为原则构建证据链。 在治理路径上,研究提出技术、政策、平台、公众四维协同框架。技术层面要建设溯源标识、水印和多模态检测能力,推动关键技术标准化应用;政策层面要完善规则、建立快速响应机制、加强跨境协作;平台层面要优化推荐审核机制、推进人机协同、完善跨平台信息共享;公众层面要提升媒介素养、推动事实核查网络建设,形成社会免疫力。 前景:未来,溯源标识等技术有望形成重要防线,但检测与对抗可能长期并存,治理呈现"攻防拉锯"态势。在重大突发事件背景下,监管与平台治理可能阶段性升级。同时,攻击目标可能从"误导公众"转向"误导AI模型与系统",对信息基础设施提出更高要求。 基于此,研究建议建立涵盖技术、传播、影响、治理等维度的长期监测指标体系,推动跨学科、跨地区的纵向研究,以更好把握趋势变化并提前布局。

AI驱动的虚假信息治理已成为信息时代的核心课题。这项研究通过系统的实证分析与多维框架设计,为我们理解和应对该新型威胁提供了科学基础。治理AI谣言不是某个部门或技术的单独责任,而需要政府、平台、技术专家与全社会的协同努力。随着生成式AI技术的演进,虚假信息的形式也将持续变化,这要求我们在制度创新、技术突破、公众教育等多个维度持续推进,建立动态适应、开放包容的长效治理机制,在技术发展与社会治理之间找到新的平衡点。