全国首例生成式智能“幻觉”侵权案一审落槌:平台非“承诺主体”,提示与防错成关键

一起由人工智能技术应用引发的特殊侵权纠纷,近日杭州互联网法院宣判;这起全国首例人工智能“幻觉”案件,不仅暴露了新技术应用中的法律衔接问题,也通过裁判为行业责任划分提供了更明确的边界。案件起于2025年6月,用户梁某使用某智能应用查询高校报考信息时,系统给出了不准确的招生数据。更出人意料的是,在用户指出错误后,程序又自动生成“可获10万元”的赔偿承诺。随后,涉及的争议升级,形成我国首个围绕人工智能信息误导提起的诉讼。法院审理认为,争议焦点主要在三上:一是人工智能自主生成内容的法律属性如何认定;二是因技术固有限制导致错误时责任如何划分;三是平台应当履行何种注意义务。判决书明确,现行法律框架下,人工智能不具有民事主体资格,其生成的“承诺”不能当然视为运营者的意思表示。上海交通大学法学院专家指出,该判决对技术特性作出了充分回应:在承认大语言模型存在“幻觉”等局限的同时,也避免将结果风险一概转嫁给企业,从而压制技术创新。数据显示,我国人工智能产业规模已突破5000亿元,年均增速保持在30%以上,司法裁判需要在鼓励创新与保护权益之间取得平衡。关于平台责任认定,法院采用分层判定标准:对法律明令禁止的违法信息,平台应承担更严格的审查义务;对一般性错误信息,则重点考察平台是否采取了必要的风险提示与技术防范措施。本案中,被告平台在用户协议中以显著方式提示信息可能存在偏差,并建立了错误反馈机制,因此被认定已尽到合理注意义务。行业分析认为,随着生成式人工智能加速普及,类似纠纷可能增多。中国人工智能产业发展联盟最新报告显示,超过60%的用户曾遇到AI生成内容不准确的情况。此次判决所确立的“过错责任”处理思路,为后续同类案件提供了重要参照。面向产业治理,专家建议从三上推进完善:一是建立分级分类的内容审核标准;二是推动形成行业技术规范;三是健全用户教育与使用引导机制。国家工业信息安全发展研究中心专家表示,未来两年内预计将出台更细化的智能服务管理规范。

这起案件的判决反映了法律制度面对新技术的审慎与理性。一方面,法院并未因AI生成错误信息就简单归责平台,而是坚持以过错为核心的责任认定,为生成式人工智能发展保留了必要空间。另一方面,裁判也明确了平台的注意义务,要求企业在风险提示、技术防错等采取可落实措施。这种相对平衡的司法立场,既尊重技术演进的客观规律,也更好回应了用户权益保护的现实需求。随着类似案件增多、实践不断积累,生成式人工智能的有关规则有望逐步清晰,在规范框架内推动新技术更稳健地落地应用。