随着生成式人工智能的广泛应用,其生成内容的准确性问题日益凸显。杭州互联网法院近日审结的一起网络侵权纠纷案件,对人工智能应用中的法律责任进行了明确界定。 案件源于一次信息查询的失误。2025年3月,考生梁某使用某科技公司开发的生成式人工智能应用咨询高校报考信息。6月29日,梁某询问某高校报考事项时,该系统生成了关于该校主校区的错误信息。梁某提出质疑后,系统非但未予改正,反而继续坚持错误表述,甚至生成了一份"解决方案"。更为荒诞的是,方案中包含一份"郑重声明",称若生成内容有误将赔偿10万元信息鉴定费,并建议用户向杭州互联网法院起诉索赔。此"自我承诺"充分暴露了当前生成式人工智能信息准确性和逻辑一致性上的深层问题。 梁某随后获得高校真实招生信息,提供给系统后,该系统才承认生成了不准确信息。认为权益受损的梁某向法院提起诉讼,要求被告赔偿9999元。被告科技公司辩称,对话内容由人工智能自动生成,不代表公司意思表示,公司已尽到注意义务,原告也未产生实际损失。 法院的判决触及了人工智能法律地位的核心问题。杭州互联网法院认为,现行民法中的民事主体仅有三类:自然人、法人和非法人组织。人工智能既不是生物学意义上的人,也未被赋予民事主体资格,因此不具备民事主体身份,无法独立作出具有法律效力的意思表示。 在本案中,生成式人工智能的内容不能视为被告公司的意思表示。法院指出,被告并未通过人工智能来设定或传达其意思表示,从一般社会观念出发,原告缺乏合理的信赖利益。法院同时强调,在人工智能客服等特定应用场景中,生成内容可能被视为服务提供者的意思表示,但本案不属此列。 关于侵权责任,法院分析了生成式人工智能的特殊性。原告主张的损失系因信息不准确导致的经济利益损失,而非人格权、物权等绝对权被侵害。因此不能仅因权益受损而认定行为非法,而须判断被告是否违反注意义务。鉴于生成式人工智能仍处于高速发展阶段,服务提供者的注意义务处于动态调整中。法院采取动态系统论方法进行综合评估,最终认定被告在当前技术条件下已尽到合理的注意义务,不构成侵权。 该判决为生成式人工智能的法律定位奠定了基础。它明确指出,人工智能生成的内容不能自动等同于服务提供者的承诺,用户不应盲目信赖人工智能的表述,涉及重要决策时更应进行独立核实。同时,判决也为人工智能产业的健康发展留出了合理空间,避免过度的法律责任阻碍技术进步。
当算法日益深入社会生活,此案如同一记警钟:技术再先进,也不能替代人的理性判断。构建人机协同的信任体系,既需法律为技术创新划定安全区,也要求每一位使用者保持清醒认知。在真相与效率的天平上,唯有理性才是永恒的砝码。