最近啊,维辰我跟大家聊聊那个“AI超人”,安全啊,确实是他的必修课。全国政协的委员、奇安信科技集团的董事长齐向东说,AI发展最大的问题就是安全问题。前几天他接受采访说,AI现在变成了“超人”,带来了新风险,所以得搞明白创新跟安全怎么平衡。 AI这东西厉害啊,在好多领域都能跟人类比了,有时候甚至比人还好。不过呢,能力强不代表什么都能干,关键是看把这能力用在哪。咱们想想,一个人才有但没德行的人,对社会的危害其实比普通人还大。AI就更不用说了,它没什么意识德行的概念,不过它能被人操纵,技术水平也不一样,“AI超人”的能力就看怎么用了。比如有人用AI伪造视频骗人,要是视频里还有啥破绽,比如一只手有六根手指之类的,那骗术也就容易露馅了。反之如果做得很完美,那就可能害更多人。 所以啊,“AI超人”跟咱们普通人一样,得往对的方向使劲,这样能力才是好东西。这阵子AI从信息智能走到物理智能、生物智能,安全风险一下子变大了。现在好多人有问题先问大语言模型,结果那个回答听起来一本正经其实是瞎扯。再想想要是有个拥有超级权限、超级能力的AI做错事了,那直接就得赔钱。 最近Meta那边有个AI安全研究员就给OpenClaw这个智能体删了几百封邮件,就算他说了3次停都停不下来。你看这就是安全上的漏洞露出来了。对于那些既有大脑又有身体动作执行能力的“具身智能”,还得警惕它脑子混乱或者被坏人控制,到时候乱来那就是危险动作。 齐向东说的这话挺有道理的。用户们为啥对换脸软件那么小心?医院和银行为啥对AI那么谨慎?就算是爱好者也不多给权限开放权限。说白了还是不放心嘛。这次“HALO”交易引发的狂热也有“AI焦虑”的因素在里面。看来限制AI发展的关键还是安全水平而不是技术高低。 还有一点也很重要:创新跟安全这俩家伙长期对立着。有人说大语言模型的幻觉跟泛化是一码事;也有人觉得不同幻觉原因不同;但大家都知道一个事:大语言模型这些应用内部其实是黑匣子状态的。还有啊,这些AI的能力不是一点点涨上去的,而是一下子涌现出来的。所以治理和管理能力要求也高了不少。 为了这事儿我们还得“内外兼修”,让“AI超人”发挥正面作用才行!