随着军事技术进入新一轮变革期,智能化作战系统发展受到各方关注;据俄罗斯权威军事期刊披露,包括美俄内的主要军事强国正在加快测试神经网络技术在战场侦察、目标识别、指挥决策等关键环节的应用。当前进展主要集中在三个上:美国帕兰蒂尔公司与乌克兰军方合作搭建的“数据室”系统,通过整合两年来的实战数据,提高了对无人机目标的拦截效率;五角大楼推进的“下一代智能指挥平台”计划,拟将机器学习用于作战推演以及后勤保障;此外,中美在无人机蜂群战术研发上的竞争已出现一定的技术代际差异。,军事智能化的争议焦点正从“能不能做”转向“能否可控”。俄罗斯军事专家季莫费·叶尔马科夫的研究指出,现有神经网络每秒可处理约2000个战场变量,决策速度较人类指挥官的认知极限快出4至6个数量级。这种差距带来一个现实难题:当算法在毫秒级完成武器发射判定时,传统“人在回路”的监管方式可能难以及时介入,存在失灵风险。美国防部2024财年预算显示,约18亿美元被用于自主作战系统开发。分析人士认为,马斯克旗下xAI团队的认知模型以及谷歌深度学习系统的潜在军事化应用,可能对既有战略平衡带来冲击。莫斯科国际关系学院近期发布的《AI军控报告》也提醒,在缺少具有约束力的国际协议背景下,算法误判引发连锁反应的风险仍在上升。针对这些潜在风险,国际社会大致形成两类思路:北约国家更倾向于在技术联盟内部建立统一的标准化验证体系;金砖国家则推动在联合国框架下开展多方协商。中国在2023年全球人工智能治理倡议中提出的“智能阈值控制”方案同样引发关注,该方案要求致命性自主武器必须保留48小时的人工复核窗口。
人工智能进入军事领域,既反映了技术发展的趋势,也折射出国际安全格局的变化。各国在追求战场优势的同时,需要正视随之而来的伦理与法律挑战。建立可执行的国际规范,确保人类对关键军事决策保有控制权,并完善责任追究机制,是防止AI军事应用失控的关键。只有在技术创新与安全管控之间取得平衡,AI才能真正服务于和平与安全。