这时候咱们就该聊聊,“科林格里奇困境”,你看这OpenClaw一火,“AgenticAI”时代真就来了,AI治理这事儿立刻就被拎出来说。就在3月29日,复旦大学搞了个跨学科论坛,专门讨论怎么应对这个问题。大家都在琢磨,“科林格里奇困境”说的就是技术跑得太快,治理措施总跟不上趟,等问题出来了再想纠正就特别费劲。清华大学新闻与传播学院的陈昌凤教授就说了,现在以OpenClaw为代表的智能体正在改变信息的玩法,以前大家只是用工具获取信息,现在是真的成了“行动参与者”。任务不再是孤零零的完成,而是要靠模型、工具、平台、部署者和使用者一起折腾出来。这时候责任往哪划就成了大麻烦,智能体不再是听指令的机器了。上海计算机软件技术开发中心AI治理研究所的陈敏刚也感叹,OpenClaw这么火,给测评带来了大难题,比传统模型难太多了。以前只要看“答得对不对”,现在得盯着任务有没有成、过程顺不顺、出了岔子能不能恢复、错在哪一步。他还特意提到了北京大学和香港大学搞的ClawEval框架,这个测评方向真的很新。东南大学人文学院的王钰教授就讲了个做法,把中国的老智慧和西方的伦理结合起来搞了个大模型“问道”,想给治理逻辑往前推一推,别等到技术都做完了才去看行不行。她觉得伦理问题不是结果上的事儿了,得从数据、算法到系统设计阶段就开始管。具身智能公司眸深智能的胡斐也提了企业的看法:安全可控、促进创新、保障公平。他建议给AI治理分类分级,还可以学学英国搞的“监管沙盒”,划出条线让企业在里面安心创新。这不,这次论坛还是复旦大学一个“人工智能伦理的中国之治研究”项目的开题会,就是想摸索出一套灵活又有人本精神的治理办法。大家伙儿现在都在想呢:在这个“AgenticAI”的时代,咱们到底用哪种治理模式才靠谱?