你有没有听过一个新闻,这次杭州互联网法院审结了一个特别有意思的案子,是关于生成式人工智能的。大概是在2025年的12月29日,杭州互联网法院审结了首例生成式人工智能信息纠纷案。案子的主角是梁某,他在查询清华大学法学院报考信息的时候,被某个科技公司提供的人工智能应用误导了。结果他原本打算报考清华大学的机会都错过了,还不得不花钱去打官司维权。 这个案子法院认定科技公司没有过错,所以不用赔偿梁某10万元。法院给出了三个重要理由:第一,AI模型不能被当作法律主体,它们生成的内容也不能算作法律上的意思表示。第二,虽然这些信息有偏差,但是没有涉及到违法或者有毒有害的内容。第三,科技公司已经在界面上清楚标明了信息可能存在局限性。所以根据《民法典》里的过错责任原则,法院认为他们没有主观过错。 这个案子其实也让我们看到了一些技术局限的问题。这些AI系统有时候会编造一些根本不存在的信息,还有时候会前后矛盾。专家们认为,这是因为训练数据不够完善、算法推理有问题,还有对语义和事实核查能力不够强。这个问题其实已经引起了全世界的注意,世界经济论坛在《2025年全球风险报告》里就把错误和虚假信息列为五大风险之一。 这次判决对行业发展有很大启示。它明确了生成式人工智能服务属于信息服务而不是产品,排除了产品责任原则的应用。这给以后类似的案件提供了一个基准。另外,判决强调了服务提供方要给用户提供提示标识,用户自己也要学会核实信息的真实性。清华大学法学院的程啸教授就说这个判决对完善侵权责任理论体系很有帮助。 面对生成式人工智能快速普及的现状,我们需要构建一个多层次的治理体系。技术研发机构要加强事实核查机制和不确定性标注系统的建设。监管部门可以考虑建立一个分级标识制度来规范内容质量。公众教育方面也要通过典型案例宣传来强化“人工智能只是辅助工具”的认知。杭州互联网法院也提醒大家要理性看待当前技术阶段的人工智能辅助属性,不要完全依赖它们的生成内容作为决策依据。 这个案子让我们看到了智能时代法律和科技对话中的深层次命题。法律需要为创新护航的智慧,社会也需要对技术局限保持清醒认知。或许真正的智能不仅仅是算法有多精妙,更是人类在拥抱技术时那份审慎和明辨。