美国政府机构全面停用Anthropic人工智能系统 技术安全争议引发供应链重构

问题——围绕政府采购与应用边界的分歧公开化 近期,美国联邦政府内部出现对同一技术供应商的集中“降级”与替换动作。美方多部门相继传出停止使用Anthropic有关模型与服务的消息,其中美国国防部人工智能模型使用条款引发争议后,将该企业列入“供应链风险”评估范围。随后,国务院、财政部以及卫生与公众服务部等部门的管理层据称根据总统指令要求内部人员停止使用Claude,并转而采用其他平台与模型。美国国务院内部聊天工具StateChat的底层模型也被曝将调整为GPT-4.1。面对相关决定,Anthropic上强调缺乏法律依据,表示将寻求司法救济。 原因——安全限制、合规责任与政策偏好交织 从已披露信息看,此轮调整并非单纯的技术性能比较,更核心的矛盾集中安全限制与用途约束之上。知情信息显示,美方与Anthropic在如何限制技术被用于自主武器打击目标、以及在国内监控等敏感场景的政策边界上存在明显分歧。在政府采购与部署场景中,模型能力固然重要,但更关键的是供应商能否提供符合政府使用要求的合规承诺、审计机制与可追溯能力。对国防、外交、公共卫生等部门而言,涉密网络部署、权限管理、数据留存与调用记录等要求严苛,一旦在条款、责任划分与可控性上无法达成一致,便容易被纳入“供应链风险”的政策工具箱。 同时,此动向也与美国近年来持续强化关键技术供应链审查的政策脉络相呼应。随着生成式技术进入政府办公、情报分析、公共服务等环节,任何关于模型用途与边界的争议,都会被放大为国家安全与治理能力问题。鉴于此,行政系统更倾向于选择合规条款、定制化部署和对政府诉求响应上更易达成一致的供应商方案。 影响——政府市场格局重排与行业竞争加速 对Anthropic而言,被联邦机构以“供应链风险”方式处理,具有明显的示范效应和外溢影响。一方面,政府客户预算规模、行业带动和信誉背书上具有特殊作用,若多部门同步减少使用,将直接冲击其公共部门的增量空间;另一上,政府采购的风向变化可能影响州与地方机构、承包商生态以及与其合作的系统集成商选型,从而更大范围内削弱其商业拓展。 对竞争对手而言,此时窗口期被迅速打开。就在相关争议发酵期间,OpenAI宣布与美方达成安排,将技术部署至国防部机密网络,并在舆论出现疑虑后表示将修订协议,强调其系统不会被“故意用于对美国公民和国民的国内监控”。这一表态显示,政府与企业之间的合作正从“能不能用”转向“怎么用、用到哪里、谁来负责”的精细化治理阶段,企业不仅要提供技术能力,还需在条款设计、透明度与可审计性上回应公众与监管的双重压力。 更广泛看,美国政府对供应商的态度调整,可能导致政府端模型生态出现“集中化”倾向:一旦少数供应商更易满足合规与部署条件,政府系统的技术依赖将更向头部聚集,带来效率提升的同时,也可能引发对垄断、议价能力与单点风险的讨论。 对策——在“可用”与“可控”之间建立更清晰的规则框架 就政府治理而言,关键不在于简单替换某一家供应商,而在于建立跨部门一致的应用标准与风险评估机制。其一,明确生成式技术在军事、情报、执法与公共服务场景中的用途边界,特别是对自主武器、目标选择、国内监控等高敏感事项设置更具操作性的禁止或限制条款。其二,强化对模型调用、数据处理、输出使用的审计体系,要求供应商提供日志、权限管理、模型更新说明与第三方测评结果,降低“黑箱化”带来的政策风险。其三,推动多供应商并行与可替换架构建设,避免过度依赖单一技术路线造成的系统性脆弱。 对企业而言,公共部门合作正进入“合规竞争”的新阶段。除了性能迭代,企业还需在治理机制上形成可被政府接受的产品化能力,例如更细粒度的安全策略配置、更透明的模型行为说明、以及在涉密环境下的本地化部署与隔离方案,从而减少政策争议对合作稳定性的冲击。 前景——政策与产业将进入长期拉锯与再平衡 可以预见,围绕生成式技术的政府采购与使用条款争议仍将持续。随着技术在政府业务中的渗透加深,美方对“供应链风险”的界定可能更加频繁地被用于处理商业分歧与政策分歧,行业竞争也将从产品比拼延伸至制度安排与伦理治理的比拼。短期内,联邦机构对合规承诺更明确、部署路径更成熟的供应商或将倾斜;中长期看,若缺乏透明、稳定且可预期的统一规则,政府与企业之间的合作成本将上升,并可能加剧技术生态碎片化与不确定性。

大模型进入政府体系,既是技术创新的机遇,也是公共治理的挑战。提升效率固然重要,但更需要明确权力边界、责任链条和安全底线。只有在透明规则和可审计机制下推进应用,技术才能真正服务公共利益,而非成为新的风险来源。