中国首宗生成式人工智能侵权官司,总算给平台的过错责任边界画清了一道线。

我国首宗生成式人工智能侵权官司,总算给平台的过错责任边界画清了一道线。事情要从2025年6月说起,用户梁某在一款生成式AI程序里查高校报考信息,AI给出的招生数据全是错的。等梁某把正确数据甩出来后,AI竟然蹦出了一段承诺:“要是信息有差错,赔10万元,去杭州互联网法院告吧。” 面对铁证,AI最后不得不承认了错误。 这让梁某很是气愤,直接告了平台,要对方赔9999元,理由是平台没把好关,侵害了他的权益。平台那边则是死鸭子嘴硬,说对话都是模型自己编的,根本不算法律上的意思表示,而且他们之前也提示过风险了,用户也没亏啥。 杭州互联网法院这次审了好几个层次:先是明确了AI不具备法律人格,模型生成的内容只能算平台的行为;上海交通大学凯原法学院的林洹民觉得这是“人类负责制”的体现;接着法院认定这类服务得用《民法典》里的过错责任原则来判;然后还特意划分了三层义务。法官特意说了,现在技术做不到百分百不出错,但平台得用显眼的标识、协议提示或者实时告警来告诉用户这事有技术限制。 中国人民大学法学院的张新宝评论说,这个案子挺有前瞻性。它既没让企业因怕担责不敢创新,又逼着他们去履行社会责任。判决书里还特别讲了注意义务得跟企业的技术能力、服务性质和用户期待对上号。 这次判决不光是判了个案子那么简单。随着AI从实验室走进千家万户,它标志着司法在治理AI这块上迈出了一大步。裁判给出的过错责任框架和分层义务体系,既给行业留了发展空间,又把老百姓的权益给护住了。未来等法律更完善、技术也更牛了,这方面的治理肯定会越来越好。