一、谈判破裂后的重启信号 据多位知情人士透露,Anthropic首席执行官达里奥·阿莫代伊近期正与美国国防部负责研究和工程事务的副部长埃米尔·迈克尔重新接触,商谈五角大楼获取并使用Anthropic大型语言模型的具体条款;若谈判取得实质进展,美军有望在合规框架内继续使用有关技术,同时也可降低Anthropic被列入“供应链风险”企业的可能性。 这个动向出现在双方谈判“戏剧性破裂”后不久,外界普遍认为这表达出一个信号:分歧仍在,但沟通渠道尚未关闭。 二、合作基础与矛盾根源 Anthropic与美国国防部的合作可追溯至2024年7月。当时公司获得一份约2亿美元的国防部合同,成为首家获准在机密环境及国家安全机构中部署模型的人工智能企业。这一合作显示美军对前沿AI能力的重视,也反映出科技公司与国防体系合作的更加深。 但合作中的核心矛盾始终存在。五角大楼希望获得更广泛授权,使相关技术可用于一切“合法用途”,以扩大AI在军事领域的应用空间;Anthropic则坚持限制用途,反对模型被用于完全自主武器系统开发,也反对用于大规模国内监控。这一立场与其长期强调的安全与伦理原则一致。 双方在使用边界上的分歧,最终导致近期谈判破裂。 三、冲突激化与强硬表态 据悉,上周二美国国防部长皮特·赫格塞思与阿莫代伊会面——要求其签署文件——授权军方不受限制使用Anthropic技术,并表示拒绝将面临后果。赫格塞思在会谈中提及可能援引《国防生产法》,强制要求Anthropic向五角大楼开放模型,并威胁将其列入“供应链风险”名单,这将使公司在政府采购中处于不利地位。 阿莫代伊随后并未让步。他在内部备忘录中重申公司对用途限制的立场,并批评已与国防部签署无限制授权协议的竞争对手,暗示此举可能拉低行业伦理标准。对此,迈克尔公开指责阿莫代伊“试图扮演上帝的角色”,双方对立进一步公开化。 四、实际使用与政策表态的落差 ,尽管美方在公开层面对Anthropic施压,但知情人士称,美军在实际行动中仍在广泛使用其技术。包括美国中央司令部在内的多个作战司令部,已将相关模型用于情报评估、目标识别和战斗场景模拟等任务,其中据称涉及美国及以色列对伊朗实施军事打击期间的相关行动。 这反映出一种矛盾:在政策与谈判层面,政府采取强硬姿态;在执行层面,军方对该技术的依赖已较深,短期内难以替代。表态与实际之间的落差,削弱了强硬威胁的可信度,也在客观上为双方重启对话提供了空间。 五、前景研判 从当前态势看,Anthropic与美国国防部的对峙,集中反映了AI商业化过程中“伦理约束”与“国家安全需求”之间的张力。随着AI在军事场景的渗透加深,类似冲突很可能在更多企业与政府部门之间反复出现。 短期内,双方均已释放愿意继续谈的信号,达成某种阶段性安排的可能性不低;但长期而言,如何在可执行的伦理框架与军事应用需求之间建立稳定、可持续的制度安排,仍是美国政府与科技企业共同面对的问题。
人工智能进入军事与安全领域——既是技术发展的延伸——也是治理能力的检验。越是关键领域,越需要用清晰规则划定边界,并以可核查机制落实责任,避免在追求效率与优势的同时放大不可逆风险。能否同时做到“可用”与“可控”,将决定各方合作能走多远、走多稳。