美军披露在对伊行动中引入智能系统辅助决策 战场算法误判与监管空白再引争议

一、问题:智能辅助系统悄然进入战场决策链 据彭博社3月5日报道,美国中央司令部在近期对伊朗的军事打击行动中,引入了一家商业科技公司开发的智能辅助系统,用于情报评估、目标识别和战场场景模拟。这是美军首次公开承认在实战中使用此类商业工具参与决策支持。 智能技术在军事领域并非新鲜事,卫星图像分析、网络威胁侦测、导弹防御引导等场景早有应用。但此次披露的情况有所不同——具备自然语言交互能力的新型系统已开始直接介入战场决策流程,其应用边界正在悄然扩展。 二、原因:技术扩散与监管滞后形成结构性矛盾 智能辅助系统能够快速渗透军事领域,核心在于其数据处理能力和决策加速效应。以色列军方在加沙冲突中使用的"薰衣草"系统是一个典型案例。该系统并非通用语言模型,而是专门针对军事目标识别设计的数据分析平台,通过整合社交关系网络、位置历史记录等大量监控数据,对个体进行量化评分,并依据评分阈值自动标记潜在打击目标。 然而据涉及的调查报告显示,该系统的误判率高达10%。牛津大学教授玛丽亚罗萨里亚·塔德奥指出,该比例意味着约3600名无辜者被错误纳入打击目标范围——这个数字背后,是真实的生命代价。 伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨对此直言,相关系统"存在难以置信的漏洞与极端的不可靠性",而战争本身的动态性与复杂性,使这种不可靠性的危害被成倍放大。 三、影响:决策提速与人道风险同步上升 施瓦茨教授指出,智能辅助系统在战场上的核心作用是加快决策速度、扩大决策规模,而这一过程往往伴随着人工审查环节的压缩乃至缺失。系统处理的目标越多、速度越快,人工核查的比例就越低,误判风险也随之累积。 更值得关注的是,过去十五年间,智能技术在军事领域的应用越来越不透明。相关决策过程、系统逻辑与误差范围,往往不对公众、不对国际社会开放。这种透明度的缺失,不仅削弱了外部监督的可能性,也让事后追责与纠错机制难以发挥作用。 当前围绕商业科技公司与军方合作的讨论,多针对于大规模监控或自主武器的合法性与道德边界,却在一定程度上遮蔽了一个更根本问题:这些技术究竟在战场上如何运作,谁在监督,谁来负责。 四、对策:透明机制与国际规范亟待建立 多位学者一致强调,对于这类尚未经过充分验证的技术系统,透明度是最低限度的前提。塔德奥教授表示,国际社会目前尚未就"是否允许由机器来决定一个人的生死"这一根本问题形成共识。 这一判断揭示出当前国际治理框架的深层空白。现有国际人道法对平民保护有明确规定,但针对智能辅助决策系统的专项规范至今付之阙如。如何界定此类系统的使用边界、如何确立误判责任归属、如何推动相关信息的国际共享与监督,已成为国际社会无法回避的紧迫议题。 五、前景:技术应用与伦理约束的博弈将持续深化 随着智能辅助技术在军事领域的应用不断扩大,它与国际人道主义法律框架、战争伦理规范之间的张力将深入凸显。商业技术公司是否应为其产品的军事用途承担连带责任,各国政府是否有义务公开智能辅助系统的决策逻辑与误差数据,国际社会能否就此形成具有约束力的共同准则——这些问题的答案,将在很大程度上决定未来战争的人道主义底线究竟划在哪里。

当算法开始介入生死抉择,这场关于技术边界的全球辩论已无法回避;它不只关乎军事变革的走向,更是对智能时代文明底线的直接追问。