DeepMind的创始人哈萨比斯最近说,现在搞超级AI简直不可收拾了,搞不好会把人类给灭了。这哥们儿以前坚信用制度管住就行,结果现在看来,那些伦理审查也就是个摆设,想把控安全还得在技术核心上下功夫。回想起他当初卖公司给谷歌的时候,提出的安全条款那叫一个严格,什么保留决策权、设个外部监督委员会、还不让军用,这些条条框框那时候可是被捧上天的。但现实往往比想象跑得还快,马斯克加入安全倡议没多久就自己搞了OpenAI,这下子单一主体说了算的局面彻底玩完。 等到2022年ChatGPT横空出世,行业风向彻底变了。谷歌为了在竞争中不落下风,就把DeepMind和自家的谷歌大脑给合一块儿了。为了提升效率,以前那些安全规范早就被抛到九霄云外去了。面对这种局面,哈萨比斯也不得不调整策略。他现在不指望靠外部机制来管了,转而把宝压在了技术决策层上。看着他们忙着搞Gemini这样的前沿模型,其实就是想在关键节点上抓住方向。 这种变化说白了就是被逼无奈的适应之举,也让咱们看到了非营利性安全机制在商战里有多脆弱。行业里的人都看得很清楚,哈萨比斯的想法变来变去其实反映出了一个大问题:当技术跑得比治理框架快太多的时候,安全肯定得给进度让路。眼看着越来越多大厂加入这种军备竞赛式的研发大潮里去,人类可能真的要把最后控制AI的机会给弄丢了。这不仅仅是个伦理问题,更是关乎人类文明能不能延续的大事情啊。