美防部与科技企业2亿美元合作濒临破裂 人工智能军事化应用争议升级

近日,美国国防部与人工智能企业Anthropic的合作关系陷入严重僵局;据媒体报道,五角大楼正威胁终止双方价值2亿美元的合作协议,核心争议围绕谁应掌握对AI技术军事应用的最终控制权展开。 问题的症结于双方对AI使用边界的理解存在根本性差异。国防部要求Anthropic允许军方将其Claude模型应用于"所有合法用途",这实质上意味着取消现有的安全限制措施。这些限制原本禁止将AI技术用于武器研发、情报搜集和战场作战等敏感领域。而Anthropic则在两个问题上设置了明确的红线:一是禁止使用其技术对美国民众进行大规模监控;二是禁止用于开发完全自主武器系统,即无需人类干预即可自主决策和执行的致命性武器。 分歧的激化源于具体的实战场景。当Anthropic询问其技术是否被用于涉及"火力打击"的实际军事行动时,国防部官员表示强烈不满。军方认为,在实际作战中要求作战人员暂停行动与软件供应商逐一协商使用场景是不现实的,这种事后审查机制缺乏可行性。这个分歧暴露了两个不同世界的碰撞:一方是追求快速决策和行动自由的军事机构,另一方是坚守技术伦理底线的科技企业。 有一点是,Anthropic在四大主要AI企业中态度最为坚定。OpenAI、谷歌和xAI都表现出了一定的灵活性,愿意在政府压力下做出妥协。但Anthropic内部对军方业务也存在分歧,公司执行极为严格的内部使用政策,甚至工程师团队内部也对涉军项目持有不同看法。这反映出该企业将"AI安全"作为核心价值观的坚定立场。 然而,五角大楼也面临现实困境。尽管与Anthropic摩擦不断——国防部官员私下承认——在政府专项和涉密应用场景中,Claude模型的性能仍优于其他竞争产品。这使得国防部陷入两难:一上需要最先进的AI技术支撑国防建设,另一方面又无法接受企业对使用方式的严格限制。 若双方无法达成共识,五角大楼暗示可能采取更强硬的措施。国防部考虑将Anthropic列为"供应链风险方",并逐步寻找替代解决方案。这一举措将对Anthropic的商业前景产生重大影响。另外,Anthropic方面坚称其致力于维护国家安全,并强调自己是首家将AI模型接入涉密网络的企业,试图证明安全性和国防支持并非对立关系。 这场争端的深层背景是美国政府对AI技术军事应用的迫切需求。随着大国竞争加剧,美国国防部将AI视为战略竞争的关键领域,希望通过掌握最先进的技术获得军事优势。但这与硅谷科技企业日益增强的伦理自觉形成了张力。越来越多的AI企业开始思考技术的社会责任,而不是无条件地服从政府需求。 目前,双方仍在沟通中。这场冲突的最终走向将对整个AI产业与政府的关系产生示范效应。它不仅涉及一份合同的存续,更关乎如何在国家安全需求与技术伦理之间找到平衡点的重大问题。

这场围绕“使用边界”的拉锯,表面是合同条款与项目进度之争,实质是新技术进入高风险领域后的治理命题。如何在效率、保密与安全、伦理之间建立可执行的制度安排,决定了军用人工智能能否在可控轨道上发展。规则越清晰,合作越稳固;边界越明确,风险越可管理。