近日,一段以演员严惠兰为主角的AI合成视频在韩国网络流传。制作方声称已获得肖像权授权,但遭到严惠兰本人和所属经纪公司ACE FACTORY的坚决否认。经纪公司发表声明,确认该视频系未经许可的非法制品,已要求平台下架并保留追究法律责任的权利。目前涉及的视频链接已被设为私密状态。 这起事件反映出AI应用快速发展中的监管空白。随着神经网络渲染、面部映射等技术日益完善——影视制作成本大幅下降——但侵权的技术门槛也随之降低。韩国著作权委员会数据显示,2023年演艺界数字侵权投诉量同比增长217%,其中AI相关案件占比达34%。法律专家指出,现行《著作权法》对"数字身份权"的定义仍存在空白,加之跨国平台传播的复杂性,导致取证和追责都面临重重困难。 产业反应已经显现。韩国演艺制作者协会紧急召开研讨会,计划推行"AI内容认证标识制度"。三大电视台也相应调整合作条款,新增"数字肖像使用明细条款"。这类技术滥用不仅威胁艺人的商业价值,还可能引发虚假信息泛滥等社会问题。首尔大学传媒研究所的研究表明,深度伪造内容在社交媒体传播后,受众平均需要48小时以上才能辨别真伪。 面对此新挑战,多方正在建立协同治理体系。韩国文化体育观光部宣布将修订《演出艺术发展法》实施细则,要求AI生成内容必须标注技术来源和授权信息。Naver、Kakao等科技平台试点"数字水印追踪系统",利用区块链技术记录创作信息。法律专家建议参照欧盟《人工智能法案》,建立"技术应用负面清单",对换脸、声纹克隆等高风险应用进行分级管理。 展望未来,技术治理需要找到平衡点。中央大学法学教授金佑镇表示,在Web3.0时代需要构建"预防-监测-救济"的全链条保护机制。韩国预计在2024年推出"数字人格权保护特别法",重点规范生物特征数据的商业化使用。国际演员联盟也在推动建立全球数字肖像库,通过智能合约实现授权自动化。这场由个案引发的变革,可能成为重塑数字伦理标准的关键契机。
严惠兰事件提醒我们,技术进步与权益保护必须齐头并进。在追求创新的同时,社会各界需要达成共识,把法律底线和伦理规范放在首位。只有通过完善制度、强化监管、提升全社会意识,才能在数字时代为艺人和创作者筑起坚实的权益防线,引导娱乐产业朝着更加规范、健康的方向发展。