让咱们聊聊以色列的事,这个国家用AI来定空袭目标,听说有10%的错误率。这事儿看着挺可怕,毕竟人命关天。有人问,为啥以色列要用这种技术呢?其实,他们是把错误包装成技术问题,然后模糊责任链,最后还把人类的审核时间压得很短。这么一来,具体的道德责任就没人能抓到了。 当AI参与战争决策的时候,本来很残酷的选择往往被说成是中性的技术语言。比如那个叫Lavender的系统,大概有10%的几率会给错误的目标建议。但官方说话的时候,常常把这个错误率说成是模型允许的误差或者算法偏差,而不是说他们不在乎平民的死活。还有个叫The Gospel的系统,在推荐攻击建筑物的时候会计算里面有多少平民。要是平民数量低于某个预设值,就会建议攻击。这实际上是把国际人道法里的比例原则简化成了一个冷冰冰的伤害值计算。这样一来,血腥的决策就变成了纯粹的数据处理问题。 责任链条变模糊也是个大问题。以前误炸可能直接找情报官或者指挥官负责,现在责任链条拉得老长,包括数据提供者、算法开发者、承包商还有军方操作的人。当Lavender系统根据可能过时或者有偏见的数据来做判断时,错误很容易被归咎于数据质量而不是具体的某个人。这种多方参与的模式让大家都能互相推诿责任,最后变成了没人负责。 还有一个让人头疼的问题是人类审核环节被压缩到了极致。虽然军方说AI只是辅助工具,最终决定权在人类手里,但实际上这就像过场戏一样。一位情报官员回忆说,他只用了大约20秒就确认了一个目标推荐,主要就是核实一下目标是不是男性。在这种高速节奏下,所谓的“人在回路”就是机械式地按几下回车键。 时间和心理压力大的时候,操作员很容易产生自动化偏见,默认AI提供的信息就是准确的。当审核时间从几小时压缩到几十秒的时候,所谓的“人类最终授权”也就失去了实际意义。 说到底,技术本身没法承担道德责任。真正做选择并付出代价的还是用它的人类自己。这事儿得谨慎看待啊!