最近几个月,影视行业频繁出现AI技术滥用事件;多部未经授权使用明星面部特征的短剧网络传播,肖战、成毅等公众人物的肖像权问题引发广泛关注。目前部分平台已主动出手,禁止生成未授权的真人肖像、声音及视频内容,试图从技术源头遏制侵权。 这类现象背后,反映出AI技术快速发展带来的新型侵权挑战。不法分子利用AI伪造明星形象参与商业活动、制作虚假影视作品甚至进行诈骗的情况越来越多。从王劲松遭遇的非法集资广告,到周星驰经典作品被恶意篡改,再到普通民众面临的身份冒用风险,AI技术的滥用已严重威胁社会信任。 这类乱象频发主要有三个原因。首先——技术门槛大幅降低——开源模型和简易工具让侵权成本急剧下降。其次,监管跟不上技术迭代速度,现有法律法规难以有效应对。再次,利益驱动下,部分从业者为了流量红利放弃了伦理底线。 这些侵权行为不仅伤害当事人的合法权益,更对社会秩序造成深远影响。虚假信息泛滥可能误导公众,侵蚀社会诚信基础;未经授权的商业化使用则扰乱市场秩序,破坏原创生态。 行业已开始寻求解决方案。部分平台通过关键词拦截、人脸比对等技术手段加强审核,同时推动建立统一的行业规范。但专家认为,企业自律远远不够,必须建立"技术+法律+行业"的多维治理体系。技术层面需在开发阶段植入防护机制;法律层面应明确责任主体和处罚标准;行业层面则需建立跨平台协作机制。 值得关注的是,《生成式人工智能服务管理暂行办法》等法规的出台,标志着我国在AI治理上已取得重要进展。未来如何平衡技术创新与权益保护,将成为推动行业健康发展的关键。
AI生成技术越强,规则的"护栏"就越要清晰坚固。以维护人的权益与尊严为出发点,让平台自律、行业标准与法律规制形成合力,才能在创新与安全之间找到平衡,推动技术朝着良性、可持续的方向发展。