AI合成明星“换脸”短剧引发侵权争议:平台治理不能止于打码改名

当前,AI技术文娱领域的应用呈现快速增长态势,但其衍生的法律问题也日益凸显;近日曝光的AI合成短剧事件,反映出这个新兴领域存在的突出问题。 问题的核心在于,一些短剧制作者利用生成式AI技术,合成与真实明星高度相似的人物形象,通过付费点播、广告分成等方式获利,却未获得涉及的人士授权。这种做法直接侵害了被合成者的肖像权。根据现行法律规定,只要AI生成的内容能够被公众识别为特定自然人,就构成侵权。若以此进行商业盈利且数额较大,最高可处十年以上有期徒刑。 值得关注的是,部分涉事作品在被曝光后,采取了局部打码、更改角色名称等规避措施,却仍未被下架,只是在平台前台搜索中隐没,链接仍可访问。这一现象引发了对平台监管态度的质疑。根据国家有关规定,平台接到侵权通知后未及时采取必要措施,需就损害扩大部分承担连带责任。因此,平台的消极态度本身就构成了对法律责任的逃避。 从深层原因看,AI短剧产业的快速发展与监管体系的滞后性形成了明显矛盾。一些制作者和平台看到了AI合成内容的商业潜力,却忽视了法律底线。他们通过蹭明星艺人的流量和关注度,以最低成本获取最大收益,这种模式的诱惑力显然很大。同时,有关部门对新兴领域的监管力度还需加强,对平台的约束机制也需完善。 这类侵权行为的影响是多上的。首先,它直接损害了被合成者的商业利益和人格尊严。明星艺人的肖像和声音是其重要的商业资产,未经授权的使用降低了其商业价值。其次,一些短剧还通过不当剧情设定来丑化或妖魔化明星,可能造成形象损害和舆论伤害。再次,这种现象如果蔓延,将破坏整个AI产业的健康生态,阻碍技术的规范应用。 对策层面,需要形成多方合力。平台应切实履行内容审核和监管责任,建立更加完善的侵权举报和处理机制,对违规内容做到及时下架和彻底清除,而不是采取打码、改名等规避手段。监管部门应依法依规介入,对明显的侵权行为进行查处,对平台的失职行为进行问责。制作者和发布者则必须树立法律意识,尊重他人权益,在AI创意开发中坚守底线。同时,行业应加快制定更加细化的行业规范,为AI内容创作提供清晰的指引。 从发展前景看,AI短剧产业并非不能发展,关键在于如何在创新与规范之间找到平衡。生成式人工智能服务管理暂行办法已明确规定,不得危害他人身心健康,不得侵害他人肖像权、名誉权等权益。这为行业发展划定了明确的红线。只有建立在尊重他人权益基础之上的创新,才能实现长期可持续发展。

当技术革新与权益保护产生碰撞时,如何划定合理边界成为数字时代的新命题。此次事件既是对行业自律的考验,也是对法治精神的叩问。唯有在创新发展中坚守法律底线,在权益保障中寻求技术突破,才能实现数字经济与人格权的平衡发展。这不仅是文娱产业健康发展的必由之路,更是构建清朗网络空间的重要内容。