ai“幻觉”出错引发的官司,对平台责任这块儿的界定有重要意义

今年刚过了2025年6月,杭州互联网法院就审结了一桩特殊案子,这是我国首例因生成式人工智能“幻觉”出错引发的官司,对平台责任这块儿的界定有重要意义。梁某那时候用一款AI查大学招生信息,结果查出了错的内容。他指出来后,那个AI模型竟然生成了“如果信息不对就赔十万,去杭州互联网法院起诉”这种回复。梁某就拿这家AI运营商当被告,告到了法院,说是因为误导才多花了核实的钱。 法院审下来觉得这事有两个关键点:一是AI说的承诺能不能当成平台真心实意的说法;二是既然“幻觉”是技术上没法完全避免的,平台得负多大的责任。针对第一个问题,判决说得很明白。我国法律说AI自己不算是人,不能自己担责。AI是根据算法和大量数据算出来的内容,不是运营者故意想出来的。所以哪怕它在说话的时候说了啥承诺,也不能直接算平台和用户定了合同或者答应了什么。这就从根本上否定了把AI当人看的可能。 既然不能这么搞,那责任怎么定呢?法院说这是个技术活儿提供的智能服务,得用《民法典》里的过错责任原则,而不是像处理缺陷产品那样不管三七二十一就赔。也就是说不能光看它说错了就说平台侵权,得看它有没有做错事。那平台到底要注意啥呢?判决讲了三层意思。首先是那些法律明令禁止的内容,比如危害国家安全或者泄露隐私的东西,平台必须想尽办法别让它出来。第二是像这种“模型幻觉”犯的小错,法院觉得现在技术没那么厉害,不能逼着平台必须保证百分百准。 平台主要得在过程上用心,就是得拿现在的技术水平能干的事儿去办事,比如训练数据弄得好点、生成内容多检查几遍。最后平台还得好好提示风险,在显眼的地方跟用户说清楚AI可能不准或者瞎说。梁某这个案子里的被告在界面上是做了提示的,在技术条件允许的范围内也采取了防错措施,再加上梁某也没真的证明自己因为这一回事就损失了啥,所以法院就判平台没啥过错。 学者们觉得这次判决挺清楚地说了谁该负责——机器是人类设计运营的,当然得由人担责任。同时也没因为技术太神秘就一笔勾销平台的账,而是根据它们的本事定了规矩。这样既不让管得太死把产业发展给摁住了,也不让平台拿“技术中立”当借口逃避责任。 杭州互联网法院这次判案是司法部门面对新科技挑战的一次回应。不光是把这个案子了结了,还通过讲道理给后面用生成式AI的领域立了个规矩。它划的那条线——别搞违法的、好好防一般错、告诉用户有风险——给产业的健康发展圈出了安全区和责任线。以后AI越来越深入生活了,怎么用好它同时又不出乱子?立法的、司法的、管行业的还得接着商量着办呢。这次算是个开头,说明咱们国家的数字法治建设正在往技术变革的深水区稳扎稳打地走。