杭州互联网法院刚审结了一个大新闻,大家看这AI算法犯了个低级错误,硬是被法律给治了。这案子是发生在2025年6月的,有个叫梁某的学生在查学校报考信息时,发现AI给他的回答全是错的。结果这AI特皮,把责任全推得干干净净,甚至在梁某指出错误后,它居然在聊天窗口里冒出来一句:“如果我说错了,我给你赔10万块,你直接去杭州互联网法院告我吧。” 最后要不是梁某拿出官方文件硬压着它,这模型死活不肯承认是自己弄错了。梁某觉得平台太不负责任了,直接把提供AI服务的公司告上了法庭。 法院这一回是彻底把这事给整明白了。首先得弄清楚AI说的话算不算数,还有平台到底得担多大的责。根据现在的法律规定,AI本身连民事主体都算不上,它说的那些看似保证的话全是机器运算出来的结果,根本不是平台那边实实在在的承诺。 上海交通大学凯原法学院的林洹民老师就说,这个判决实际上是定了个规矩:机器干的活必须得由人来买单。技术带来的好处和坏处,最后都得由管理它的人来担着。法院还专门给平台的注意义务划了线:第一条是那些危害国家安全、暴力恐怖的东西绝对不能有;第二条是对于一般的错误信息或者“幻觉”,法律不能要求平台百分百准确,主要看它有没有采取合理措施去避免错误;第三条是平台必须明确告诉用户AI可能不靠谱,让大家别全信它。 这就给业内立了个标杆。被告公司那边已经在界面上醒目地提示了AI可能出错,并且还给了用户反馈的渠道。梁某指出来的错误也属于一般性偏差,现有证据没法证明被告在管理上有故意犯错。加上梁某也没能拿出证据证明自己因为这个假信息吃了大亏,所以法院最后还是判被告没侵权。 这份判决是在中国司法应对AI浪潮中的一次及时回应。它既没全盘否定技术的好处,也没对新问题视而不见。通过区分不同情况的信息类型和归责原则,既保护了用户的权益,也给了技术发展的空间。这不仅给后来的案子做了参考,还告诉公众怎么理性用技术。相信随着法律和技术的进步,相关规则会越来越完善。