律师诉百度AI名誉侵权案引热议 技术伦理边界亟待厘清

随着生成式AI技术的广泛应用,一类新型的侵权纠纷正在浮出水面。

59岁的北京律师黄贵耕近日成为这一现象的亲历者。

今年5月,他收到案件委托人发来的截图,内容显示在百度搜索中以其名字为关键词时,AI会自动生成包含伪造印章、威胁法官、非法吸收公众存款等严重刑事犯罪指控的信息摘要。

这些虚假指控直接影响了他与委托人的信任关系,给其执业声誉造成重大损害。

经过深入调查,黄贵耕发现问题的根源在于AI的信息处理机制。

这些虚假内容并非来自人为编造,而是由AI通过"张冠李戴""移花接木"的方式自动生成。

具体而言,AI将来自司法机关公开通报的匿名处理信息进行篡改,将"律师黄某""法律顾问黄某"等模糊指代替换为具体个人名字;将不同案件中的当事人信息进行拼接组合;甚至将其他同名人士的处罚记录错误关联到他的名下。

这些操作虽然看似是技术层面的信息匹配错误,实际上却对个人名誉造成了系统性、无差别的伤害。

从技术机制看,生成式AI在聚合信息时缺乏必要的身份识别和信息核验机制。

当用户搜索某个名字时,AI会从海量数据中提取相关内容,但在这个过程中,它无法准确区分不同个体、不同事件之间的差异。

特别是对于匿名处理的司法文书,AI直接进行名字替换,导致完全无辜的个人被关联到虚假的犯罪指控。

更为严重的是,这些虚假信息被标注上"来自司法机关公开通报"的权威标签,强化了其可信度,使受害者更难以澄清。

黄贵耕发现的另一个问题是"负面信息传播闭环"。

在百度搜索中,以他的名字为关键词会自动关联"律师黄贵耕有没有犯罪""律师黄贵耕为什么不建议找"等负面问题。

这种关联机制进一步强化了虚假信息的传播效果,使得委托人、法院、同行等多个利益相关方都可能接收到这些虚假内容,形成恶性循环。

面对这一困境,法律界出现了不同声音。

一些业界人士认为,为了保护科技创新的活力,社会应当对AI犯错保持一定的"容忍度",不应以过于严苛的责任标准阻碍技术发展。

这一观点的支持者强调,完全杜绝AI错误几乎不可能,过度的法律追究可能导致企业过度谨慎,进而影响整个行业的创新步伐。

但这一论点遭到了法律专家和受害者的强烈反对。

反对者指出,容忍AI错误的前提应当是这些错误的后果相对轻微。

然而,涉及个人名誉、刑事指控的虚假信息所造成的伤害是严重的、不可逆的,不在"可容忍范围"内。

更重要的是,技术企业拥有比用户更强的信息获取能力和技术改进能力,理应承担更高的注意义务。

如果允许企业以"创新"为由逃避责任,实际上是将无辜者的权益作为技术发展的代价,这在法治社会中是难以接受的。

目前,类似的问题已不仅限于黄贵耕一人。

多位受访者表示,他们也遭遇过来自各大搜索平台AI的类似"攻击",被虚假地指控犯罪、被错误地关联负面事件。

这表明问题的普遍性和紧迫性。

当前,我国法律对于生成式AI产生的虚假信息如何认定责任还缺乏明确规定。

名誉权、隐私权等民事权益保护与AI技术的规制之间如何平衡,AI开发运营者应承担何种程度的审查责任和赔偿责任,这些问题都需要通过司法实践和立法完善来解答。

黄贵耕已于今年9月以侵犯名誉权为由将百度公司诉上法庭。

这一案件的审理结果将对整个行业产生重要的示范效应。

法院需要在保护创新与保护权益之间找到平衡点,明确AI生成虚假信息时企业应承担的具体责任。

同时,监管部门也应加快推进相关法规的制定和完善,为AI技术的规范应用设定清晰的边界。

从技术层面看,改进AI的信息处理机制是当务之急。

搜索平台应当在生成信息摘要时增加身份核验、信息交叉验证等环节,对于涉及个人名誉的敏感信息更应谨慎处理。

同时,应建立有效的投诉和纠正机制,使受害者能够快速获得救济。

从法律层面看,需要尽快明确AI生成虚假信息的责任认定标准,确立企业的审查义务和赔偿责任。

技术进步不应以牺牲个体权利为代价。

生成式信息服务越深入公共生活,越需要把“准确、可证、可纠错”作为底线要求。

面对新型名誉侵害风险,既不能因担忧而裹足不前,也不能以“创新”之名放任失真扩散。

通过规则完善、责任压实与机制升级,让技术回归服务社会之本义,才能在效率与公正之间找到更稳固的平衡点。