春节临近——网络内容供给增加——一些新技术生成的逼真视频多平台传播;另外,少数账号在发布合成内容时不按规定标识,甚至故意隐瞒来源、模糊边界,借虚构故事和情绪叙事博取关注,导致真假难辨。网信部门对此督促平台深入排查整治,对违规账号和信息依法处置。 问题:不标识、不核验与"去标识"并存,误导性传播层出不穷。通报案例显示,违规行为主要有五类:一是虚构"动物救人""拆弹救援""猛兽伤人"等故事,不加标识传播,以猎奇和煽情获取流量;二是通过换脸、声音克隆假冒运动员、演员、主持人等公众人物,制造不实言论吸粉引流,或未经授权售卖"拜年祝福"等视频牟利;三是生成虚假火灾现场图片、视频,借事故灾情编造炒作,混淆视听;四是围绕未成年人偏好内容进行"魔改",渲染血腥暴力、低俗元素,传递不良价值导向;五是传播或售卖"去水印""去标识"教程、软件与服务,形成规避监管的灰色链条。这些行为的共同指向是:技术降低了制作门槛,少数人以更低成本获取更高收益,真实信息空间被挤压。 原因:逐利驱动叠加审核压力,催生"流量—变现—逃避"的链式冲动。一上,算法分发下的竞争激烈,个别账号把"新奇、刺激、反转"当作流量密码,将合成内容包装成"现场""亲历""独家",以情绪撬动传播。另一方面,公众对新技术作品的辨识能力存在差异,遇到"逼真画面+煽情文案"更容易被带入,放大误导后果。更值得警惕的是,"去标识"工具的供给使部分违规内容从"偶发不规范"转向"有组织规避",导致治理难度上升。此外,一些平台在标识提示、风险分级、溯源校验等环节仍有薄弱点。 影响:虚假灾情与事故炒作易引发恐慌与资源误配,甚至干扰应急处置;假冒公众人物发布不实言论,既侵害肖像权、名誉权,也可能诱导粉丝被动卷入谣言扩散;针对未成年人的低俗、暴力内容可能造成心理冲击。更深层的影响是社会信任成本上升:当"眼见"不再为实,用户对真实信息的判断变得更谨慎甚至更怀疑,公共沟通效率下降,权威信息需要付出更高解释成本才能抵达受众。 对策:压实平台责任,推动标识制度落实,从源头斩断灰产链条。治理的关键在于把"必须标识、清晰标识、不可去除"落到产品与流程中:平台要完善生成合成内容的识别提示机制,强化对热点事件、公共安全、灾害事故等领域的风险审核与快速辟谣联动;对涉及公众人物、未成年人的内容,要提高准入门槛与审核强度,建立更严格的账号信用与惩戒体系;对教授去标识、售卖有关服务的账号和店铺,应加大打击力度,形成"发布即追溯、交易可阻断、违规必付代价"的闭环。内容生产端应强化合规意识,明确标注生成合成属性,避免以技术之名行欺骗之实。公众也需提升媒介素养,对"过于离奇""强情绪"内容保持审慎,通过权威渠道核验信息来源。 前景:以规则与技术双轮驱动,推动生成合成应用走向规范有序。生成合成技术本身可用于创意表达、文化传播与产业创新,关键在于让它在透明、可追溯、可问责的框架内运行。随着监管要求细化、平台治理能力提升以及标识与溯源技术迭代,虚假内容的生存空间将被更压缩,行业也将从"拼噱头"回归"拼质量"。未来一段时期内,围绕公共事件、名人形象、未成年人内容等重点领域的治理会持续加码,标识规范与打击灰产将成为常态化工作重点。
在数字化浪潮中维护清朗网络空间,既是对技术进步负责,更是对社会文明负责。此次专项行动既是对违法者的震慑,也是对行业发展的重要信号。当技术创新与法治建设同频共振,我们方能真正驾驭数字文明的时代列车。