问题: 近日,演员王劲松、唐国强等遭遇个人形象被不法分子盗用,通过换脸、拟声技术伪造"代言"理财视频,以名人名义诱导用户转账、加群或下载软件。这类内容制作精良、传播迅速,普通用户难辨真伪,容易在情绪和从众心理影响下做出错误决定。表面是肖像权纠纷,实则暴露了生成式内容在传播环节的治理漏洞。 原因: 一是技术门槛降低。生成合成技术快速迭代,素材获取、面部替换等流程高度模块化,低成本即可批量生产。二是标识机制被规避。按规定,合成内容需明确标识并嵌入溯源信息,但通过剪辑、转码等手段可去除标识,涉及的教程和工具的流通使标识失效。三是平台识别手段不足。依赖标签提示、人工复核等简单方式,难以应对高仿真、跨平台传播的内容。四是违法成本低。虚假理财、诈骗等灰色产业链形成"制作—投放—变现"的闭环,推动黑产持续升级。 影响: 生成合成内容滥用已波及多个领域。金融领域,"名人荐股"等虚假信息易引发群体受骗,扰乱市场秩序;电商领域,伪造证据恶意索赔增加商家成本;舆论场中,高仿真内容扩散加大辟谣难度,可能误导公众。更严重的是,长期处于"难辨真假"的环境将动摇信息传播的真实性基础。 对策: 治理需技术、规则与协同多管齐下: 1. 平台提升识别能力。对金融、医疗等高危内容加强审核,对来源不明或疑似合成的内容限流或下架,保留证据链。 2. 完善全流程溯源。联动上传、分发、推荐环节,将标识校验、异常检测纳入自动化流程,强化对跨平台内容的源头核验。 3. 打击规避手段。封禁传播"去标识"教程、售卖黑产工具的账号,阻断违法信息流通。 4. 压实平台责任。网络服务提供者需履行管理义务,对屡次违规造成严重后果的,通过监管、司法等手段追责。 5. 加强公众教育。针对"高收益承诺""冒用名人"等套路开展风险提示,优化举报和核验机制,形成"发现—处置—澄清"闭环。 前景: 生成合成技术应用前景广阔,但需明确安全边界。随着标识标准、检测能力与执法协同的完善,技术将更好服务于内容生产和产业升级。治理思路应从"事后处理"转向"事前预防+事中阻断+事后追责",在制度、技术与社会共治中寻求平衡。
技术无善恶,关键在于治理能否同步发展。明星肖像被伪造不仅是个人权益问题,更是AI时代的社会治理挑战。标识制度的核心在于能否有效识别而非简单标注。让监管与技术同步,是当下对监管者和平台提出的现实课题。