杭州法院审结多起人工智能侵权案 技术应用法律边界引热议

问题——生成式内容“看似可信”却可能失真,责任边界亟待厘清。中国互联网络信息中心发布的《生成式人工智能应用发展报告(2025)》显示,截至2025年6月,我国生成式人工智能用户规模达5.15亿、普及率36.5%;截至2025年8月底,累计538款涉及的服务完成备案。应用从文案扩展到图像、音乐、视频及制造、出行等场景,逐步嵌入日常生产生活。同时,模型输出仍可能出现错误、信息过时、张冠李戴等情况,容易被当作“权威答案”,引发误导、名誉受损、市场混淆等风险。作为数字经济和人工智能产业较为活跃的地区,杭州法院近年来审理多起涉人工智能案件,成为观察相关治理与司法规则演进的重要窗口。原因——技术局限与使用方式叠加,放大“幻觉”带来的外部影响。一方面,生成式模型受训练数据覆盖范围、更新周期以及概率生成机制等因素影响,难以彻底避免内容偏差;专业性强、时效性高或需要严格事实核验的问题上,出错概率更高。另一上,部分用户将模型输出直接当作可发布、可采信的事实材料,忽视核验与引用规范;在流量驱动下,一些内容生产者抱有“先发布后更正”的心态,甚至利用模糊表述制造噱头,导致错误信息扩散更快、纠正成本更高。此外,用户协议提示不充分、标识不醒目,平台审核工具和溯源机制仍在完善,也可能让公众误判输出内容的性质。影响——纠纷类型趋于多样,司法需要在多重价值之间把握尺度。杭州互联网法院审结的一起案件中,当事人因模型给出不准确信息并出现“赔偿承诺”表述而起诉服务研发公司要求赔偿。法院综合用户协议中关于输出可能不准确的提示条款、服务属性及平台采取的必要技术措施等因素,认定服务提供者已尽到合理提示义务,并在现有技术条件下采取行业通行的必要措施提升准确性,不存在过错,遂驳回诉请。该案表达出清晰信号:生成式服务的输出并不当然构成平台的法律意思表示,不能将模型“说法”简单等同于平台承诺,更不能把技术工具当作转移责任的对象。另一案件中,自媒体从业者在商业推广中使用大模型生成文章并对外发布,内容将两家公司关系表述错误,且未在前端显著标注为生成内容。法院认定其以引流营利为目的发布虚假信息,明知生成内容可能失实仍未核验、未显著提示,违反诚信原则和商业道德,损害企业商业信誉并扰乱竞争秩序,构成不正当竞争,判令其承担赔偿并消除影响。该案表明:当生成内容进入公共传播或商业场景,发布者对事实核验、来源标注和风险控制负有更高注意义务。对策——以案释法推动“提示+核验+标识+治理”闭环,形成可落地的责任分担机制。司法实践显示,生成式人工智能服务在现行规则框架下更多被定位为“服务”而非传统意义上的“产品”,对服务提供者适用何种归责原则,需要兼顾创新激励与风险外溢控制。对平台而言,应继续完善显著提示机制,提升用户协议的可读性与关键条款呈现效果,增强事实核验辅助、引用来源提示、敏感领域输出限制等能力;对可能引发公共误导的场景,可加强分级管理与人工复核。对使用者,尤其是面向公众传播和商业推广的内容生产者,应将核验作为“发布前置程序”,对涉及机构关系、专业结论、数据指标等关键事实进行交叉验证,并在显著位置标明生成属性,避免以“工具生成”为由规避基本的真实性义务。对监管与行业组织而言,可推动更细化的标识标准、纠错机制与信用约束,降低社会纠错成本。前景——在鼓励创新与守住底线之间,责任规则将更趋精细与场景化。随着备案服务持续增加、应用进一步下沉,涉生成内容纠纷可能在名誉权、著作权、消费者权益、反不正当竞争以及数据合规等领域持续出现。可以预期,裁判将更关注“是否尽到合理提示”“是否采取必要技术措施”“发布者是否履行核验与标识义务”“损害结果与因果关系是否成立”等关键要件,并结合不同使用场景、主体能力与利益衡量,形成更具可预期性的规则体系。在动态平衡的司法理念下,为技术创新留出空间,同时为权利保护与公共利益划清边界,将成为未来一段时期的重要方向。

人工智能发展已成趋势,但技术应用必须在法律框架内运行;杭州法院通过涉及的案件的审理,为人工智能时代的治理规则提供了实践样本。这些判例既深入厘清了不同主体的责任边界,也传递出明确信号:法律要支持创新,也要守住公共利益底线。技术开发者、内容使用者与监管部门需要各尽其责、协同治理,共同推动人工智能向更安全、可控、可用的方向发展。