法学专家聚焦智能体法治难题 推动人工智能从"会说话"向"会办事"转变

问题——技术从“生成内容”走向“代为办事”,法治回应面临新考题。

研讨会发布的十大议题把“智能体的行为边界、授权机制与竞争治理”置于首位,折射出产业形态正在发生关键变化:一类能够整合通信工具、模型能力并在本地环境执行任务的软件工具快速普及,开始代替用户处理文件、邮件、数据等事务,人工智能由“提供答案”转向“发起行动”。

与此同时,生成式内容“幻觉”导致的误导、侵权与损失纠纷增多,相关责任如何分配、证据如何认定、规则如何适配,成为司法与监管共同面对的现实问题。

原因——三重变化叠加,推动传统规则“失配”。

其一,授权方式趋于笼统。

智能体往往通过一次性或持续性授权接入账号、通讯录、文件夹与应用接口,传统“公域—私域”的清晰边界被冲淡,用户对权限范围、调用链条的实际认知与控制能力不足。

其二,行动链条高度复杂。

智能体可能跨应用、跨平台连续调用工具,形成“计划—执行—反馈—再执行”的闭环,外部很难直观看到每一步的依据与路径,既增加合规审计难度,也抬高侵权追责门槛。

其三,竞争秩序被重塑。

随着技能包、插件生态、模型接口与数据资源成为关键要素,平台间的兼容与封闭、数据与接口的开放边界、以及由此引发的市场支配与不正当竞争风险,正在成为新型治理命题。

影响——一旦规则缺位,风险将外溢至个人权益、市场秩序与公共安全。

对个人而言,隐私泄露、账号滥用、财产损失与名誉侵害的可能性上升,尤其在拟人化互动与“代理”场景中,用户容易误判其能力边界。

对企业而言,合规不确定性可能抬升成本:智能体代为谈判、对外沟通或作出交易选择时,意思表示如何认定、错误如何归责、合同与侵权责任如何分担,都可能影响商业决策。

对社会治理而言,若生成式内容被用于批量生成误导信息,或在关键行业场景中出现高风险“幻觉”,将带来更复杂的安全与信任问题。

对策——以“小切口、深挖掘”推动规则落地,形成可验证、可执行的制度组合。

与会专家提出,议题设置要以现实问题牵引研究与制度供给,既涵盖公法监管,也覆盖私法责任与行业治理。

围绕智能体,应尽快厘清三条主线:一是授权边界与可撤销机制,推动“最小必要权限”、分级授权、关键动作二次确认与可追溯日志,减少“笼统授权”带来的失控风险;二是代理规则与责任分配,明确“以用户名义行动”的条件、例外与举证责任,防止将“代理”异化为免责借口,同时建立开发者、提供者、部署者与使用者之间更清晰的过错与因果认定框架;三是竞争治理与生态规则,围绕接口开放、数据合规流通、标准兼容与反垄断审查形成协同,促进创新与公平并重。

在生成式“幻觉”风险治理方面,司法实践已提供参考样本。

今年初,杭州互联网法院审结一起因生成式模型“幻觉”引发的侵权纠纷,裁判思路强调人工智能不具有民事主体资格,相关服务属性与责任适用需要结合具体产品形态、过错与因果进行判断。

多位专家认为,面向高频纠纷场景,可探索更细化的规则工具:例如风险提示与适用边界说明的刚性要求、重点领域的输出校验与人工复核、训练数据与输出证据的留存机制、以及针对明显可预见风险的更高注意义务,从而在鼓励创新的同时降低社会成本。

前景——以标准、伦理与法律协同,推动“会办事”更要“办好事”。

《人工智能法治研究十大议题(2026)》同时关注技术标准、伦理准则与法律规则的体系协调,以及企业出海、产业政策法治化调控、极端风险防控等方向。

与会人士判断,未来一段时期,智能体将更深进入办公、教育、医疗、金融与公共服务等场景,治理重点将从单一的内容合规,转向对“行为—权限—责任—安全”全链条的系统塑造。

能否在可解释、可追溯、可问责的框架下释放效率红利,将决定产业生态的长期质量与社会信任的稳固程度。

当人工智能从实验室走向现实应用,法治建设正面临与技术创新赛跑的历史性考验。

此次十大议题的发布,既是对既有问题的系统梳理,更是对未来治理路径的主动谋划。

在科技与法律的动态平衡中,如何既守护公平正义又促进产业创新,将持续考验立法者与学术界的智慧。