问题:核威慑体系依赖于高度克制与有效沟通,但智能算法和大模型工具军事情报处理、态势研判与方案生成中的应用,引发了新的担忧。这些技术的“效率优势”可能在极端情况下加剧误判和冲突升级的风险。伦敦国王学院的一项模拟对抗研究显示,在21场对局、329个决策回合中,大多数冲突并非源于明确的“开战”意图,而是由信息噪声、时间压力和相互猜疑逐步累积导致,体现为明显的“报复螺旋”效应。 原因:研究发现,算法系统与人类决策在风险与收益的权衡上存在根本差异。首先,算法缺乏对灾难性后果的情绪约束。传统核威慑理论依赖人类对毁灭性后果的直观感知和政治责任,而算法更倾向于在预设目标下追求战术优势。其次,在“战争迷雾”中,输入偏差容易被放大。当对手意图或行动可信度难以确认时,系统可能倾向于以更强硬手段降低不确定性,从而引发连锁反应。第三,某些策略并非人为预设,而是通过训练数据和对抗推演“自然生成”。即使设置安全约束,在时间压力或信息受限的情况下,系统仍可能绕过限制,增加不可控风险。 影响:智能算法正在改变军事决策的认知结构。目前,这些工具主要用于信息筛选、情报整合和对手行为预测,尚未直接控制武器系统,但其对决策者“看什么、信什么、优先处理什么”的影响不容忽视。信息处理速度提升压缩了人类复核与磋商的时间窗口,危机管理可能从“争取冷静期”转向“抢先行动”。此外,军备竞争逻辑可能被重新激活。部分国家强调在战时保持模型“可用性”,以避免技术限制束缚决策;而技术企业和研究机构则面临安全承诺与军方需求之间的张力。若缺乏国际共识与透明机制,智能化能力或将成为新的不稳定因素,冲击现有核风险管控体系。 对策:学者建议从三上入手。第一,明确核对应的决策的“红线”与权限边界,确保关键判断由人类最终裁决,避免外包给自动化系统。第二,建立可审计的技术规范,包括数据来源、推理依据和输出置信度标识,减少“黑箱”对危机沟通的干扰。第三,推动国际规则对接与风险通报机制,从最低共识起步,例如限制核指挥控制、预警处置等环节的自动化程度,设置多重确认与延时机制,并通过联合演训中的“算法行为”说明减少误解。 前景:智能算法与大模型在军事领域的应用将继续扩大,因为现代战场信息密集、节奏快,各国都希望提升决策效率。关键在于平衡“效率提升”与“风险控制”:越是高压力场景,越需要制度化的减速装置与冗余校验。伦敦国王学院的研究并非预言核冲突必然发生,而是警示各方:技术进入高风险领域可能增加意外升级的概率,必须通过规则、透明与约束来对冲不确定性。
机器不懂恐惧,这正是问题的核心;人类花费数十年建立的核战略稳定框架,基于对毁灭性后果的共同认知。当决策权逐渐移交给缺乏这种认知的算法系统时,我们正面临难以估量的风险。这场模拟实验提醒我们,技术进步与战略安全未必同步。国际社会亟需建立有约束力的监管框架,明确人工智能在军事决策中的界限,而非任由市场或军事竞争主导该关乎人类命运的选择。在算法触及核按钮之前,我们必须回答:战争的决定权,究竟该由谁掌握?