问题:技术滥用催生新型侵权 近期,数字技术深度合成应用带来的负面影响不断显现。全国政协委员、香港立法会议员霍启刚在社交媒体披露,其肖像和声纹被非法用于推广移民服务的虚假视频,部分内容仿真度很高,甚至让身边同事一度信以为真。数据显示,仅过去半年,其团队处理的类似侵权内容已超过千条。类似情况并不少见,演员王劲松、学者温铁军等也曾遭遇形象被篡改,用于理财产品、保健品等“代言”宣传。 原因:黑产链条成熟化运作 调查发现,这类侵权行为已形成相对完整的产业链。在部分电商平台,以“数字人定制”“动态合成”等关键词即可找到提供换脸服务的商家,单条明星换脸视频报价约300至800元,声音克隆通常仅需加价20元。为规避监管,交易往往转移至社交软件完成,商家甚至会提醒客户删除敏感聊天记录。随着技术门槛降低、逐利冲动增强,侵权行为显示出规模化与隐蔽化趋势。 影响:社会危害多重叠加 此类侵权已不止于一般民事纠纷,还可能引发更广泛的社会风险。山东警方破获的案件显示,有犯罪团伙利用合成动态视频冒用他人身份注册支付账号,单个账号售价高达300元。虚假“代言”也直接损害消费者权益,例如某“脑力素”产品使用温铁军的合成形象进行宣传,导致不少中老年群体受骗。北京互联网法院指出,只要公众能够识别出特定自然人的特征,即可能构成肖像权侵权,但技术滥用也给司法认定带来新的挑战。 对策:监管与技术双轨并进 针对乱象,多方治理正在推进。国家网信办明确要求,自2026年起所有商用生成内容须强制标注,《短视频内容标注规范(试行)》更细化平台审核责任。部分企业也已主动设置限制,例如豆包平台禁止生成真实人物影像。司法层面,北京互联网法院通过判例确立“公众识别标准”,为类似案件提供裁判参考。 前景:长效治理任重道远 目前治理仍面临不少现实难题。黑产从业者通过图片上传、画质压缩等方式绕过平台审核,被下架的内容也常以“换个版本”再次出现。专家建议,应强化跨平台数据共享,建立侵权素材特征库;同时推动《民法典》肖像权条款与《网络安全法》等衔接,明确技术提供商的相应责任。全国人大法工委透露,人工智能专项立法已纳入调研议程。
深度合成技术本可服务创新与效率,却在灰色利益驱动下被用于“盗脸牟利”、诱导消费甚至滋生诈骗,冲击社会信任与网络空间秩序。只有坚持法治规范、平台尽责、技术加固与公众参与协同发力,才能让生成内容“有标识、可追溯、能追责”,推动技术发展始终走在向上向善的轨道上。