OpenAI向加拿大做出的安全承诺,现在却让大家怀疑它究竟是为了监管,还是想给所有人搞个全方位的监控。那场震惊加拿大的Tumbler Ridge枪击案刚过去没多久,OpenAI就火速拿出了一堆补救措施,但法律专家和技术人员根本不吃这套。学者Jean-Christophe Bélisle-Pipon就说,OpenAI的老板Sam Altman对加拿大政府做的那个安全保证,说白了就是想用企业自己的监控方式来把民主监管给替换掉。18岁的凶手杰西·范·鲁特塞拉尔在动手前几个月,他那个ChatGPT账号因为发了涉及枪支暴力的内容早就被系统标出来了。虽说账号是封了,但OpenAI压根就没给警察报这个警。结果这场悲剧造成了8个人丢了性命。 为了回应这事,OpenAI搞了个新的对策:打算直接在警企之间连条线。具体来说,他们会给皇家骑警RCMP弄个上报系统,发现苗头不对立马汇报;还得把之前那些标过可疑的老账号再重新审查一遍;最后还要请加拿大专家直接住进他们的安全办公室,帮忙给政府出主意。 不过Jean-Christophe Bélisle-Pipon教授在文章里把话说得很尖刻:OpenAI是在躲着审查他们是怎么设计和训练模型的事儿,反倒在使劲盯着用户说的话。现在这个问责机制里有个大窟窿——到底算什么威胁才上报,标准还是由OpenAI自己定的,一点都不透明也没有外人审计。 还有种“寒蝉效应”也得防着点——研究表明大家敢跟聊天机器人交心是因为觉得私密。要是聊天内容变成直通警局的监控频道,那些心里有大难处、急需人帮忙的弱势群体可能就不敢说了,这就错过了干预的机会。更让人担心的是“监管俘获”,这种看似自愿的让步很可能是在预判更严厉的法律会出台并提前削弱它的效果。 真正懂行的批评者认为监管方向错了。真正的AI治理不该光盯着谁在说话,而应该去看看系统本身是个啥样子。比如说得有个独立的第三方机构——由懂心理和懂法律的人组成——来评估风险;还要去检查模型怎么回应暴力倾向的披露,开发时做过什么压力测试才行。 随着OpenAI在全世界都忙着跟政府合作,Tumbler Ridge这事儿就成了个风向标:我们到底是换来了更安全的技术?还是换了个由私人公司掌控的、无孔不入的数字监视网?