全国两会代表委员呼吁:立法规范AI换脸技术滥用 筑牢数字安全防线

问题:深度合成“低门槛”应用带来新型侵权与诈骗风险 近年来,随着算法工具和算力资源普及,变声、换脸等深度合成能力从专业领域走向大众应用,制作门槛持续降低。一些不法分子借此冒用公众人物的肖像、声音进行带货营销,甚至拼接虚假视频、伪造语音诱导转账,扰乱网络传播秩序,侵害公民人格权益与财产安全。“看见就信、听见就认”的经验网络空间频频失效,社会信任面临新的冲击。两会期间,多位全国政协委员在回应有关问题时表示,遭遇诈骗或侵权应及时保存证据,并通过报警、投诉等方式维权,推动依法追责。 原因:技术扩散叠加利益驱动,监管与规则衔接仍需加快 一上,深度合成产品化推进迅速,相关功能被嵌入短视频、直播、社交等多类场景,用户短时间内即可完成“换脸”“换声”。便利性提升了内容生产效率,也被不法分子利用,形成“成本低、迷惑性强、传播快”的违法链条。另一上,侵权与诈骗往往跨平台、跨地域发生,行为主体可能覆盖制作、分发、引流、变现等多个环节,使取证、溯源和责任认定更为困难。法律界人士指出,现行法律对人格权、著作权、个人信息保护等已有原则性规定,但司法实践中仍存在适用标准不够统一、证据规则与技术事实衔接不够顺畅、平台管理边界与义务层级有待继续明确等问题。 影响:侵害人格权与财产安全,冲击网络生态与社会信任 深度合成被滥用的直接后果,是对公民肖像权、名誉权、声音权益等人格利益的侵害。对公众而言,伪造视频与语音可能导致财产损失,并加重对信息真伪的焦虑。对网络生态而言,虚假内容扩散会助长谣言、恶意营销、敲诈勒索等乱象,抬高平台治理成本,挤压优质内容空间。长远来看,若缺少清晰的行为边界与有效的责任闭环,不仅不利于技术规范应用,也会削弱公众对数字内容的基本信任。 对策:以可操作的规则体系划定边界,形成“司法—平台—技术—社会”共治 治理关键在于把技术应用纳入法治轨道,在鼓励创新与防范风险之间形成可执行的规则安排。全国人大代表、四川省律师协会会长李世亮表示,相关权利保护已有制度基础,但建议尽快通过司法解释、典型案例指引等方式,进一步细化深度合成侵权的认定标准、证据审查要点、精神损害赔偿考量因素,以及平台在审核、标识、处置、举证协助等的责任边界,提升裁判尺度的统一性与可预期性。 平台治理上,应坚持“源头提示+过程识别+事后处置”结合:相关功能入口设置清晰的风险提示与合规指引;对疑似深度合成内容强化标识、溯源与审核;完善举报受理与快速处置机制,对利用深度合成实施造谣、诈骗、抹黑、敲诈等行为加大封禁和移交力度。同时,通过公开典型案例和法律后果提示增强震慑,让治理效果更可感知。 技术支撑上,可推广数字水印、内容指纹、合成痕迹检测等手段,提高对伪造内容的识别能力,并在合规前提下推动跨平台协作,打通风险线索共享与联动处置。社会层面则应加强面向公众的识别培训与防骗教育,普及“陌生来电不轻信、转账前多核验、关键信息不外泄”等基本常识,提升媒介素养与风险应对能力。 前景:以法治确定性护航技术发展,把“能做什么”与“该怎么做”说清楚 深度合成并非天然负面,在影视制作、无障碍服务、数字文创等领域具有广阔空间。面向未来,治理重点不在“一禁了之”,而在于以更细致、可落地的制度安排明确权利边界与责任链条,让技术供给、平台运营与内容生产在同一规则框架下运行。随着司法规则逐步完善、平台治理能力提升、公众防范意识增强,深度合成技术有望在更安全、可信的环境中释放正向价值。

技术的边界,最终要靠法律来明确;深度合成治理考验的不只是立法与司法的响应速度,也考验社会在技术快速演进中守住基本价值底线的能力。把技术创新纳入法治轨道,在发展与防滥用之间保持动态平衡,才能同时守护技术红利与人格尊严,这也是数字文明健康发展的必要条件。