律师状告百度索赔百万 生成式AI虚假信息引发名誉权纠纷案件引关注

问题—— “搜索结果里出现的不是我做过的事,却被写得像既成事实。

”近期,北京执业律师黄贵耕反映,其姓名作为关键词在网络平台被检索时,页面关联词条及生成式总结内容出现多项严重负面指控,包括“威胁法官”“涉嫌介绍贿赂”“涉及伪造公司印章案”等。

黄贵耕表示,上述信息与其本人经历不符,且已被其正在代理案件的委托人及家属看到,导致其工作与生活受到影响。

2025年11月,相关人格权纠纷案件已由北京市海淀区人民法院受理,目前等待开庭。

黄贵耕诉请包括:下架相关不实信息、在显著位置澄清并道歉、赔偿各类损失100万元。

原因—— 从技术层面看,生成式信息服务通常通过对海量公开信息进行抓取、关联、摘要与重组,形成“概括性结论”。

在这一过程中,一旦训练数据或检索来源存在噪声、语义指代不清、同名混淆、上下文缺失等问题,模型便可能在“看似合理”的叙述中生成事实性错误,甚至把“推测性表达”包装成“确定性陈述”。

平台代理方在沟通中也承认,此类错误与信息合成过程中产生的偏差有关,并称在技术发展阶段难以完全避免。

从治理层面看,生成式内容与传统链接呈现存在差异。

以往网络侵权多表现为第三方用户或站外网页发布不实信息,平台更多承担通知删除、采取必要措施等义务;而当平台以自身名义对信息进行整合、生成并在搜索入口显著展示时,其角色更接近“内容提供者”或“内容加工者”。

这使责任边界从“是否及时处置他人信息”延伸到“是否应对生成内容的真实性与可验证性承担更高注意义务”。

影响—— 对个人而言,针对律师等特定职业群体的负面指控具有高度敏感性。

律师职业建立在专业信誉与社会评价之上,一旦被公开冠以违法标签,即使事后澄清,声誉修复仍存在滞后与成本,影响可能外溢至委托关系、行业合作乃至社会评价。

对于平台和行业而言,此类事件集中暴露出生成式信息在公共搜索场景中的风险:一是错误被“权威化”。

搜索入口往往被公众视为高可信信息源,生成式摘要若缺少清晰来源与证据链,容易放大误导;二是传播具备“自动扩散”特征。

关联词条、推荐机制等会提高错误内容被触达概率;三是争议处理的时间窗口更紧迫。

名誉侵害的损害往往在短时间内形成,平台处置效率直接影响损害程度。

对社会治理而言,生成式信息服务带来的新问题,正在倒逼规则与机制同步升级:既要鼓励技术创新与信息服务供给,也要在涉及人格权、公共信用、职业声誉等高风险领域建立更严格的审慎义务,避免“技术便利”演变为“权利成本”。

对策—— 围绕此类纠纷,业内与专家普遍认为,治理应从规则、产品、流程三方面协同推进。

一是强化“可核验”要求。

在涉及个人名誉、违法犯罪指控、职业评价等内容时,生成式摘要应明确标注信息来源、时间与可点击的证据链,避免单凭模型生成的“结论句”直接呈现。

对缺乏可靠来源或存在同名风险的信息,可采取降权展示、提示不确定性、引导用户自行核查等方式。

二是完善高风险场景的“人机共审”机制。

对包含犯罪、贿赂、伪造等敏感要素的内容,建议平台引入更严格的触发规则与人工复核;对公众人物、专业人士等易受影响人群,可探索建立快速核验通道,提高纠错速度。

三是健全权利救济与纠错流程。

平台应提供清晰、可达、可追踪的申诉路径,压缩处置时限;对已造成明显影响的错误摘要,除了删除或下架,还应通过显著位置说明更正原因与范围,降低“删了但仍被误信”的二次伤害。

四是推动责任边界在司法层面进一步明晰。

依据现行法律框架,网络信息平台在接到通知后采取必要措施可在一定条件下减轻或免除责任,但生成式信息服务中“平台是否参与内容加工并形成独立表达”“是否具备可预见性与可避免性”“是否已尽到合理注意义务”等,将成为认定责任的重要考量。

对于平台提出的“技术错误难以避免”抗辩,司法实践可能更关注:是否建立了与风险程度相匹配的防护体系、是否及时纠错、是否对受害者提供了有效补救。

前景—— 随着生成式信息服务加速进入搜索、问答、推荐等基础信息入口,类似纠纷预计仍将出现。

可以预见,未来监管与行业规范将更强调“安全与可信”作为底线要求:一方面,平台需要在产品设计上把“事实核查、来源透明、风险分级”嵌入默认流程;另一方面,社会也需要形成对生成式摘要的理性认知,避免把技术生成的文本等同于权威结论。

对司法而言,本案的审理与裁判思路,或将为平台在生成式内容场景下的注意义务与责任承担提供更具指引性的标准,进而推动行业形成更可操作的合规路径。

技术进步与法律规制永远处于动态平衡之中。

这起案件不仅关乎个体权益的救济,更是一次对数字时代权责关系的深刻拷问。

当机器开始参与内容生产时,人类社会需要建立与之相适应的新规则——这既是对创新成果的保障,更是对文明底线的坚守。