深度合成技术滥用引争议 专家呼吁加强数字肖像权保护

近期,基于大模型的视频生成工具社交平台引发广泛关注。一款名为Sora的视频大模型掀起传播热潮,用户仅凭照片就能生成包含真实声音的视频。这项技术进步的背后,却隐藏着日益凸显的法律与伦理问题。 问题已经显现。周星驰经纪人陈震宇近日在社交平台质疑,大量AI生成的周星驰电影片段在平台传播——涉嫌侵权。同时——一些内容创作者发现,平台可以在未经授权的情况下,将其公开视频用于模型训练。临近春节,更多明星的AI合成视频走红网络,用户可以定制这些公众人物的拜年视频和互动场景,形成了新的娱乐方式。 从法律角度看,这些行为涉及明显的权益侵害。中国政法大学人工智能法研究院院长张凌寒指出,人脸识别、人声合成等涉及生物识别的个人信息属于敏感数据。根据《民法典》,未经授权对他人进行深度合成,直接侵犯了肖像权、声音权等人格权益。这不仅威胁名人明星,普通公众的信息安全同样面临风险。 问题的根源在于技术发展与法律监管的脱节。AI视频生成需要大量训练数据,这些数据多来自互联网公开内容,但其使用是否获得授权、是否侵犯隐私等问题缺乏明确的法律界定。短视频平台对用户生成的AI合成内容缺乏有效审核,导致侵权内容大量传播。同时,权利人维权成本高、取证困难,侵权行为难以及时制止。 这个现象反映了AI应用中的深层矛盾。一上,AI技术为内容创作和娱乐体验带来了新可能,具有重要的商业和社会价值。另一方面,不受约束的技术应用必然导致权益侵害,损害创意工作者的合法权益,也可能被用于制造虚假信息和欺诈。网络舆论中"创作需要边界""技术创新需守规矩"的观点,反映了公众对规范发展的期待。 解决这一问题需要多方努力。平台应建立AI生成内容的识别和管理机制,对涉及他人肖像、声音的合成视频进行标注和限制。有关法律制度需要继续完善,明确AI训练数据的使用边界、深度合成的授权要求、平台的监管义务。AI技术开发者应建立伦理审查机制,在模型设计阶段就考虑隐私保护。权利人也应积极通过法律手段维护自身权益。 从国际经验看,欧盟、美国等地已开始探索AI监管框架。我国也需要在鼓励技术创新的同时,建立相应的法律制度和行业规范,确保AI发展不以牺牲个人权益为代价。

从"名人同框包饺子"的新奇到"经典片段被重塑"的争议,深度合成带来的不仅是娱乐升级,更是对法治意识、平台责任与社会共识的检验;推动技术向善,需要创作者守住授权与真实的底线,需要平台把好分发与治理的关口,也需要在规则完善与公众教育中形成合力。让创新跑得更快——也让规则跟得更稳——才能让数字内容的繁荣建立在可被信任的基础之上。