近日,美国国防部正式启用GenAI.mil平台,意在把像谷歌“双子座”(Gemini)这类商业生成式AI引入国防体系。随着技术越来越成熟,这些AI已经不仅仅是用来处理数据了,它们还开始在军事决策中当“参谋”,帮忙出谋划策。德国巴伐利亚州州长马库斯·泽德曾经试用过“半人马座”模拟器,说明这个AI在模拟推演中发挥了作用。在美军的兵棋推演里,一个叫“多诺万”(Donovan)的系统表现不错。欧洲的机载“半人马座”(Centaur)智能体在飞行测试中也很厉害,它能在超视距环境下自主飞行,还能引导飞行员开火。研发公司说,“半人马座”在第3次测试中用了几小时,积累的经验相当于人类飞行员飞了50年左右。 除了模拟器和实验室里的应用,以色列国防军的“薰衣草”(Lavender)AI决策支持系统已经被用在真实战场上。据报道,在冲突爆发后的六周时间里,“薰衣草”标记了大约3.7万个目标。大家在操作“半人马座”模拟器的时候也看到了新的自主无人作战飞行器CA-1 Europa。 不过这个AI“参谋”也有个很大的问题,就是会“幻觉”。它的信息主要来自以前演练的数据,而演练和真正的战场差别很大。所以当遇到陌生情况时,AI很容易产生一些莫名其妙的想法,虽然这些想法听起来有道理,但其实没什么根据。在紧张的战场环境下,指挥官很容易被这些看似严密的错误逻辑给带跑偏了。 而且生成式AI有个“黑箱效应”,决策者很难搞清楚它为什么出错。这让军事决策变得更加危险。所以现在最实际的办法是让人和AI一起合作,而不是让AI自己做主。 在风险比较低、事情比较平常的时候,AI可以帮着整理信息;要是碰到复杂的大问题,AI能快速算出几套方案让指挥官挑挑看。比如说在北约的“刺猬-25”军演中,“雅典娜”(Athena)系统只花了5分钟就弄出了10套作战方案,大大提高了指挥官的办事效率。 总之,生成式AI在军事决策上潜力很大,但要怎么解决“幻觉问题”,去掉那个让人看不懂的“黑箱”,定好它们能做什么不能做什么,以及出了错谁来负责这些事,都是现在必须马上解决的难题。