算法介入战场决策、消费级智能模型被用于军事行动——人工智能军事化引发国际社会深切忧虑,全球战略格局面临深刻重塑

问题——从“辅助分析”走向“参与决策”的边界争议升温。 据英国《卫报》等媒体报道,美国涉及的机构正加快将生成式大模型、目标识别与数据融合系统用于军事领域,应用场景从情报整理、态势研判延伸至行动筹划与打击方案生成。报道援引部分知情人士说法称,这类系统若干地区安全事件中被用于辅助识别目标、推演行动窗口乃至提出作战建议。英媒据此警示:当算法更深度嵌入作战流程,传统意义上“由人把关”的战争决策链条可能被重塑,战场规则与责任归属面临新的不确定性。 原因——技术迭代与战略竞争叠加,推动“快用、广用”的冲动。 一上,现代战场的数据规模呈爆炸式增长,卫星遥感、无人机影像、通信信号与开源信息交织叠加,单靠人工难以短时限内完成筛选、关联与推断,促使军方更倚重自动化工具提升“发现—定位—决策”的速度。另一上,大国博弈背景下,各方普遍担忧在新一轮军事技术变革中落后,进而形成“先部署、后规范”的现实倾向。报道还提到,美方在采购与动员机制上倾向以国家安全为由扩大对关键技术的调配权限,深入加剧政府部门与企业关于“可用范围、责任边界、风险红线”的摩擦。 影响——误判风险、外溢效应与社会信任同时承压。 其一,冲突升级风险上升。算法在高压环境下可能放大“速度优势”,但也可能放大误识别、误关联带来的误击风险。一旦将“更快决策”误等同于“更优决策”,在危机情境中可能增加冲突外溢概率。其二,法律与伦理争议凸显。英媒关注到,部分企业负责人反对将技术用于大规模监控或完全自主化武器系统,并担心一旦出现误伤或越界使用,责任难以厘清。其三,市场与舆论出现波动。有报道提及,个别企业与军方合作消息公开后,引发部分用户抵制与信任危机,企业随后调整条款、强调限制用途,反映社会对技术“军民边界”的敏感度正在上升。其四,网络空间安全担忧加深。报道还把目光投向数字基础设施与数据要素:智能终端、云服务与跨境数据流动一旦被纳入情报链条,隐私保护、数据主权与供应链安全将更受考验。 对策——以规则固边界、以透明促约束、以协同降风险。 业内人士认为,首先,应明确“人在回路”要求,确保关键环节保留可追溯的人类授权与复核机制,避免将决策责任转嫁给算法。其次,建立分级审查与用途清单制度,对用于目标识别、行动建议等高风险场景设置更高门槛,并开展独立测试与安全评估。再次,完善数据治理,明确采集、存储、调用、共享的合规边界,强化对敏感数据与关键基础设施的保护。最后,推动国际对话与多边框架建设。联合国等多边平台已长期讨论致命自主武器系统问题,面对生成式大模型等新技术扩散,应进一步凝聚最低限度共识,形成可执行的透明度与问责安排,减少误判与擦枪走火的空间。 前景——技术将继续嵌入安全领域,治理“窗口期”正在收窄。 综合多方观点,人工智能技术进入军事领域的趋势短期难以逆转,但其应用深度与方式仍存在可塑空间。谁能率先建立可验证、可执行、可问责的制度体系,谁就更可能在安全与发展之间取得相对稳健的平衡。反之,若在规则缺位下竞相扩张使用范围,风险事件的“低概率高代价”特征将更突出,国际安全环境或将面临更高不确定性。

当算法开始计算伤亡概率,当数据流决定打击坐标,人类需要清醒认识到:技术可以改变战争形态,但不应颠覆文明底线。在智能化浪潮重塑安全格局的今天,国际社会唯有坚守多边主义原则,构建包容均衡的治理体系,才能避免技术优势异化为霸权工具,真正守护人类共同安全。历史反复证明,任何单边突破规则的行为,终将反噬突破者自身。