问题——公众人物频遭“被代言”,合成内容真假难辨 近期,有演艺界人士公开表示,不法分子利用换脸合成技术制作虚假理财广告,在网络传播并诱导受众投资;类似情况也出现在香港地区:一名立法会议员称,有人将其形象合成进短视频广泛传播;其赴内地考察期间,还在交通枢纽附近看到疑似使用其形象进行商业宣传的内容。当事人表示,有关合成视频逼真度较高,连同事也曾一度难以分辨。 这些案例的共同点是:不法分子往往借助公众熟悉的面孔充当“信用背书”,在视频中嵌入“推荐”“代言”“站台”等话术,降低受众警惕,从而实现引流、获客甚至诈骗。短视频传播快、覆盖广,一旦扩散,往往带来难以挽回的影响。 原因——低成本、高仿真与灰色交易叠加,形成黑产链条 从技术层面看,换脸合成门槛持续降低、生成效率提升,不法分子只需收集公开影像素材,就能快速拼接出具有较强拟真效果的视频。更值得警惕的是,网络上存在按时长计费、宣称“包效果”的灰色服务,一些还以“无需标注合成痕迹”等方式规避识别与追责,客观上助推滥用。 从传播层面看,部分账号以匿名方式反复发布、跨平台搬运,形成“删一条、出一批”的扩散模式。受害者常面临证据易灭失、主体难锁定、跨平台追溯成本高等问题,维权周期被拉长,打击效果被削弱。 从需求侧看,金融投资、商品带货等领域存在强烈的“信任变现”动机。不法分子利用受众对名人形象的熟悉与信任,把技术能力直接转化为欺骗手段,尤其容易伤害辨别能力相对弱的群体。 影响——既伤个人权益,也冲击市场秩序与社会信任 首先,合成侵权直接损害当事人的肖像权、名誉权等合法权益。一旦被伪造为“站台”金融产品或发表争议性言论,可能引发误解和舆情波动,甚至干扰当事人正常工作与公共职务履行。 其次,对市场秩序的破坏更隐蔽也更持久。虚假代言、虚构推荐会误导消费者决策、抬高交易风险;在金融诈骗场景中,更可能造成直接的财产损失。随之而来的纠纷与处置成本也会外溢至平台、商家与监管部门,增加治理负担。 再次,从长期看,这类现象会侵蚀网络空间的基本信任。若“看见不等于真实”成为常态,公众对权威信息与真实表达的信赖度下降,不利于形成稳定、可预期的网络环境。 对策——压实平台责任,完善规则闭环,提升社会防护能力 一是平台把“标识”和“拦截”前置。对疑似合成内容加强技术识别与人工复核;对金融、医疗、教育等高风险领域的“名人推荐”强化来源核验;对多次发布侵权内容的账号实施阶梯式处置,形成震慑。对广告投放、带货链接等商业环节,应强化资质审核与责任追溯,防止“内容造假—流量变现”的闭环跑通。 二是监管与执法强化链条治理。围绕合成制作、交易撮合、推广传播、变现结算等关键环节,依法打击组织化、产业化的侵权与诈骗;对提供“定制换脸”“规避标注”等服务的灰色渠道加大排查整治力度,切断供给端。 三是完善取证与维权机制,降低受害者成本。推动平台提供更便捷的投诉通道与证据固化工具,强化跨平台协同处置;对涉及公众人物及高风险诈骗场景的内容,探索更快的应急处置与司法衔接机制,提高追责效率。 四是公众提升识别与防范意识,家庭场景尤其要加强提醒。对“熟悉面孔推荐理财”“权威人士背书产品”等信息保持审慎,做到不轻信、不转账、不点击不明链接;对家中老年人加强提示,必要时通过官方渠道核验信息来源。 前景——以法治与技术双轮驱动,推动合成内容规范发展 合成技术本身有其正当应用场景,但边界必须明确、责任必须可追。随着法律规则继续细化、平台治理能力提升以及公众媒介素养增强,合成内容的标识制度、追溯体系和违法成本有望继续完善。未来治理重点也应从单纯“事后删帖”转向“事前预防+事中阻断+事后追责”的全流程管理,推动技术创新与安全治理同步推进。
从演艺界到政商领域,AI换脸技术的滥用正在逼近社会信任底线;当人们在公共场所与自己的“数字替身”不期而遇,这不仅是个体权益的风险,更折射出数字时代共同面对的身份认证难题。在技术迭代与法治建设并行的过程中,只有建立更具前瞻性的制度护栏,才能让技术进步真正服务于人的尊严与社会诚信。正如网络安全专家所言:“对抗深度伪造不应是猫鼠游戏,而需要构建全社会的免疫系统。”