最高法:ai出错划了个明确的责任范围

今日北京人民大会堂上演了一场关于法律边界的大讨论。林文学给大家细细解读了最高法的工作报告。他说了,咱们这回给AI出错划了个明确的责任范围,并不是想纵容错误发生。就在这个当口,最高法办公厅主任林文学把杭州互联网法院处理的那起AI幻觉侵权纠纷案拿出来举例说事。案情是这样的:那是起全国首例的案例,AI一本正经地提供错误信息,等到用户指出来时,它不仅死不认账还主动承诺赔偿10万元。用户起诉后,杭州互联网法院驳回了索赔要求。法院认为AI的承诺根本无效,平台已经尽力了没过错。林文学给大伙解释说,这次判决没让运营商担责,就是想把责任分清楚。因为AI模型不是人,也不是法律认定的民事主体,它没法独立签合同或者承担责任。 接着他还讲了判案的标准是看平台有没有过错。本案中平台早就提醒大家“仅供参考”,还采取了措施提高准确率,所以算是尽到了义务。更重要的是这次事故没造成损失。法院秉持着“边发展边规范”的理念对待新技术带来的新案子。比如现在的智能辅助驾驶系统出现问题时,法院判辅助系统提供方不担责,让车企能大胆研发。不过对于那种恶意的侵权行为,法院是坚决要惩处的。 这次报告里提到的某数控机床技术秘密侵权案就很典型,最高人民法院判恶意侵权者和公司连带赔偿3倍的损失共3.8亿元。这就是在用大力度保护高端制造业的发展。这种在规范中发展的做法也是在营造一个好的创新环境。 今天上午举行了十四届全国人大四次会议第二次全体会议,最高人民法院提交了工作报告。报告里提出要给科技创新留出空间。最高人民法院办公厅主任林文学在接受采访时特意提到了这个案子的处理方式:他觉得不能对AI要求绝对正确;不能因为技术水平有限就硬说平台有责任。所以才驳回了那个10万元的索赔请求。