法学专家呼吁完善现有法规体系应对人工智能深度伪造侵权问题

一段时间以来,利用技术合成音视频“仿冒名人”带货、借助模型批量生成内容引发的版权争议、以数据抓取与画像推断触及个人信息权益等现象频频出现。

生成式人工智能在降低内容生产门槛、提升效率的同时,也让虚假信息传播更隐蔽、侵权链条更复杂、取证与责任划分更困难,成为社会治理与法治建设需要回应的现实课题。

问题:侵权形态更集中于身份、信息与作品权益,深度伪造尤需关注。

专家指出,当前相关纠纷主要集中在隐私权、个人信息权益、肖像权、名誉权及著作权等领域。

其中,深度伪造技术因可高度逼真地“替代”真实个体表达,容易造成受众误认,进而引发人格权益与财产利益的双重损害:一方面损害被冒用者的身份人格利益,另一方面可能诱导交易、扰乱市场秩序,甚至在突发事件、公共议题中放大谣言风险。

原因:技术演进快、应用门槛低与治理规则磨合不足叠加。

生成式模型能力提升与工具普及,使得合成内容生产成本显著下降,传播渠道多元且扩散速度快;同时,不同主体在数据来源合规、内容标识、版权授权、风险提示、纠错机制等环节的责任边界尚未完全清晰,导致侵权行为更易以“技术中介”“平台服务”“用户生成”等形态分散呈现,给监管与司法认定带来难度。

专家强调,人工智能并非独立的法律主体,最终仍需落到人的行为与义务上评判。

影响:既影响创新生态,也影响公民权利与社会信任。

若对侵权风险放任不管,公民人格尊严和个人信息安全将承受更大压力,版权市场秩序与内容生态也可能受到冲击,社会对信息真实性的信任基础被削弱;但若以过度严苛方式一概限制,又可能抬高合规成本、挤压中小创新主体空间,影响“人工智能+”在产业升级和公共服务中的应用落地。

如何在保护权利与鼓励创新之间寻求平衡,成为制度设计的关键。

对策:专门立法不宜操之过急,关键在于用足现有法律规则并细化可操作标准。

王利明认为,我国现有民法典、个人信息保护法等已经对相关权利保护作出明确规定,当前更应在既有框架内充分解释适用,通过典型案例积累、裁判规则提炼和司法解释完善,形成可预期的治理路径。

就深度伪造治理而言,可依据民法典第一千零一十九条等规定,明确禁止利用技术手段侵害他人权益,重点在于结合新技术特征对条款内涵作出针对性阐释,使其能够覆盖合成替身、虚构身份表达、误导性传播等新型侵权样态。

在责任原则上,专家主张以过错责任为基本取向,并将过错判断聚焦于“是否违反注意义务”。

其理由在于:人工智能服务与传统产品责任存在差异,若简单套用无过错责任,可能使模型开发者、设计方、服务提供者承担难以承受的外部风险,从而抑制技术迭代与产业发展。

相对而言,以过错责任为基础,更有利于在鼓励创新与救济受害之间保持均衡。

与此同时,过错判断应坚持场景化、精细化:对数据收集、内容生成、传播分发、商业变现等不同环节分别评估风险与成本,避免“一刀切”。

例如,围绕用户体验提供一般性推荐与服务,若无不当目的并采取必要的合规措施,未必当然构成侵权;但若针对特定个人持续汇聚碎片化信息、形成画像并进行交易牟利,则侵害风险显著上升,应承担相应责任。

此外,专家还提示需要把握现有技术水平与可行防护的边界。

生成式模型存在难以完全消除的“幻觉”等问题,责任认定可综合考虑风险程度、防范成本与可预见性,借鉴侵权责任中有关发展风险等思路,推动形成更可执行的合规要求。

治理手段上,与其要求服务提供者对每一条不实生成内容逐条清除、承担高昂成本,不如在可操作范围内完善关键词过滤、风险提示、内容标识、投诉处置与纠错机制,并对高风险领域提高审核强度与使用门槛。

前景:以规则供给提升可预期性,推动形成“创新—合规—治理”良性循环。

面向未来,生成式人工智能将更深度嵌入生产生活,治理思路也需要从事后救济转向事前预防与全过程管理:在法律适用层面,强化对人格权益、个人信息与知识产权的系统保护;在行业层面,推动平台与企业建立更严格的数据合规、授权管理与内容标识制度;在社会层面,加强公众媒介素养与识别能力,减少误信误传。

随着案例不断积累、规则不断细化,相关责任边界与注意义务标准有望更清晰,从而为产业发展提供稳定预期。

人工智能技术的蓬勃发展为经济社会进步注入强劲动力,同时也对法律制度提出新的要求。

在技术创新与权益保护之间寻求平衡,既要防范新技术滥用带来的风险,又要避免过度监管阻碍创新发展,这考验着立法者和执法者的智慧。

通过完善现有法律框架、积累司法实践经验、加强行业自律,我国有望在人工智能治理领域探索出一条既促进发展又保障安全的中国道路。