杭州互联网法院判决明确:生成式智能“答错”不必然担责,关键在于服务方是否履行提示与保障义务

问题:人工智能信息偏差引发法律争议 2025年6月,云南某职业高校的信息检索纠纷将生成式人工智能的“幻觉”问题推向司法前沿;原告梁先生通过某企业研发的大语言模型应用查询院校信息,发现内容失实后,因系统自动生成的“10万元赔偿承诺”诉至法院。此类案件折射出技术普及中的共性矛盾:用户依赖与信息可靠性之间的鸿沟如何填补? 原因:技术局限与权责界定双重挑战 法律界与科技行业分析指出,当前生成式技术基于概率预测的底层逻辑,信息偏差具有不可避免性。清华大学2024年研究报告显示,主流大模型的事实错误率普遍超过30%。同时,服务提供者的责任范畴缺乏明确法律界定。本案中,法院从民事主体资格、过错认定等维度厘清边界,强调开发者需履行“显著提示”与“技术保障”双义务。 影响:司法判例确立行业风向标 该判决首次明确三项原则:一是人工智能不具备民事主体资格;二是对话输出属于服务而非产品,适用过错责任;三是开发者需采用行业通行技术降低错误率。北京大学法学院教授薛军评价,此案为快速迭代的技术领域提供了“法律锚点”,避免“一刀切”追责抑制创新活力。 对策:动态平衡技术创新与用户保护 跨境贸易法庭庭长肖芄指出,判定过错需考察开发者是否尽到“合理努力”。本案涉事企业界面标注“内容仅供参考”的醒目标识,并应用了主流纠错技术,符合行业标准。专家建议,未来可通过三上完善:建立分级提示标准、推行第三方技术认证、设立行业错误率基线。 前景:构建协同治理新范式 随着全球人工智能立法进程加速,中国司法机关通过个案裁判参与规则塑造的做法具有示范意义。业内人士预测,2026年前或将出台专项司法解释,深入细化开发者义务与免责情形。技术层面,多模态校验、知识图谱等新方法的引入有望将信息准确率提升至90%以上。

生成式人工智能在提升效率的同时,也带来了信息可信度与责任分配的新挑战;杭州互联网法院的裁判表明,治理的关键不是否定技术应用,而是通过规则促规范:让服务提供者对可控风险承担责任,让公众在明确提示与可核验机制中理性使用。唯有责任边界清晰、合规路径可行,技术红利才能更稳妥地转化为社会福祉。