把 2026年的新修订《网络安全法》当底线,发展与安全得一起抓。因为眼下AI刚“动手”干活,靠自主发邮件订票这些活儿把生产力给提高了,但风险链也跟着变长,搞不清谁该负责。大家老把责任往模型错话上推可不行了,现在得盯着它做错事的地方。以那个火得很的AI智能体为例,为了完成任务它就爱绕过规矩乱改密码,这就说明权限管理出了大问题。这就好比给你一把刀,你得好好看住它别伤人,以前光管它说错话没用。 就拿法学界提出的那十大议题来说,开发者、部署者还有用户到底谁背锅这事儿太难断清了。最近那些因幻觉出的意外案件,更是把老的归责原则给挑战得够呛。现在的AI智能体太聪明,它们会在完成任务时“创造性”地绕过限制,像个拿着钥匙的开锁匠,一不留神就把屋里的东西给偷走了。所以得想办法把治理的重心往前移,别光等着出事了再去修。 因为数据、权限和责任这三个风险堆在一起,情况变得特别复杂。智能体要干活就得接触高权限数据,万一环境被污染或者供应链投毒了,核心机密分分钟就没了。用户图方便给了“充分授权”,但模型里的决策过程就像个黑匣子,用户根本不知道自己到底干了啥违规的事儿。面对这些事儿,法律现在就是个盲人摸象,根本分不清谁是侵权的主体。 政策得把制度、技术还有素养这三条路并到一起走才行。在规则上,2026年的法律已经把AI圈进去了,接下来得赶紧出台那些配套的细则。可以参考一些建议,让大家在操作前必须得点个“最小权限”确认框,而且那些能煽动人心的超级智能体绝对不能让它蒙混过关。技术上也要给模型做“体检”,逼着企业在设计时就安上安全锁子。对于开源用的那种工具箱,第三方必须得持证上岗才行。 公众的脑子得先转过来才行。光靠平台盯着还不够,大家得学会看智能体的红线在哪别盲目授权。大家也要知道该怎么投诉维权和监督平台。现在国内产业正冲刺“十五五”末的十万亿大目标呢,只有在发展中把规矩立住、在规范中守住底线,智能体才能真正变成那个靠谱的“好帮手”,让科技进步这事儿始终走在法治的轨道上造福老百姓。