问题——军方需求与企业底线发生直接碰撞。近期,围绕向军方提供涉及的技术服务的条款设置,Anthropic与美国国防部出现公开分歧。Anthropic表示,现有条件下难以接受美方要求,主张先建立明确的安全保障机制再提供服务,并希望相应条款作出调整。五角大楼发言人回应称,国防部要求获得“为所有合法目的”使用相关技术的权限,认为此要求“简单且合乎常理”,并强调不会允许企业对其作战决策方式设定条款。美方首席技术官亦称,为促成协议军方已作出若干让步,并向企业提供参与人工智能伦理委员会的机会。 原因——安全风险、责任边界与战略自主三重因素叠加。一是安全与可控性问题。面向军事与国防领域的技术应用涉及高敏感场景,外界关注其在情报分析、指挥决策、目标识别等环节可能带来的误判、偏差和不可预期后果。企业强调先建“安全保障机制”,核心在于通过制度约束降低技术被误用,或被扩展至高风险任务的可能性。二是责任与合规压力。相关技术一旦进入军事链条,使用路径更长、参与主体更多,企业难以在合同与技术层面完全掌握最终用途,因而可能面临声誉、法律与监管层面的连带风险。三是军方强调战略自主与统一指挥。对国防部门而言,采购与部署的关键诉求是稳定可用、覆盖面广,尤其强调在法律框架内的全用途授权,以避免关键行动受制于供应商限制,进而影响指挥统一与行动效率。 影响——短期谈判拉锯加剧,长期或推动军民技术合作规则重塑。短期看,双方公开表态使谈判回旋空间变小,合同推进与项目落地存在不确定性。对企业而言,遵循更严格的使用与安全条件,有助于对外释放风控与伦理审慎信号,但也可能在政府采购市场付出机会成本。对军方而言——若无法获得所需授权——可能转向其他供应商、加大自研投入或采用更封闭的体系,从而影响相关技术生态的开放程度与竞争格局。中长期看,此类分歧反映出一个更普遍的趋势:先进技术从通用领域走向国防应用时,传统采购合同模式与责任分配框架承压。如何在国家安全需求、产业创新动力与安全伦理约束之间形成可执行、可审计的规则,将成为各方必须面对的制度议题。 对策——以可验证的安全机制与分级授权降低对立情绪、增加合作确定性。首先,应推动“安全保障机制”具体化、标准化,避免停留在原则表述。包括但不限于:明确允许与禁止的任务类型,设定高风险场景的红线条款;建立使用审计与日志追踪制度,确保关键环节可回溯;对模型更新、数据使用、权限管理设置独立的安全评估流程。其次,可探索“分级授权+分阶段交付”。在不影响国防部门合法使用诉求的前提下,依据任务风险等级设置不同权限包,先在低风险、非致命或辅助性场景试点,再按实际效果与风险评估结果逐步扩大范围。再次,建立更具约束力的第三方监督与多方参与机制。伦理委员会的参与固然重要,但关键在于其独立性、决策权重与执行路径;需明确其建议如何进入采购、部署与升级决策链条,并形成可对外说明原则与可内部审计的执行记录。 前景——“合法用途”与“安全边界”将继续博弈,制度化安排或成破局关键。可以预见,随着相关技术在国防领域渗透加深,政府部门对“可用、可控、可持续”的要求将更强化,企业对“可审计、可限制、可免责”的诉求也会同步上升。若缺乏可量化、可执行的安全框架,类似争议可能在更多合同与更多企业间反复出现。反之,若双方能在风险分级、责任划分、监督审计与应急处置各上建立清晰机制,不仅有助于降低合作摩擦,也可能为更广泛的军民技术合作提供可复制的规则样本。未来走向取决于双方能否在原则对立之外找到可操作的折中路径:既保障国防部门在法律范围内的行动自主,也让技术供给方在安全与责任层面拥有可验证的边界。
当算法开始影响战略决策,当代码深度介入战争行为,人类正站在新的十字路口。这场发生在华盛顿的技术条款之争,本质上是对智能时代战争伦理与治理边界的艰难探索。经验表明,任何颠覆性技术要实现可持续发展,都需要在创新动力与责任约束之间找到可调整的平衡。