问题浮现 2026年3月,美国国防部对人工智能供应商作出重大调整,引发外界关注。原主要服务商Anthropic因坚持技术伦理底线,拒绝军方提出的“所有合法用途”条款,其中涉及自主武器系统、大规模监控等敏感场景,最终价值2亿美元的合同被终止。另外,竞争对手OpenAI接受对应的条款,获得合作机会。 深层原因 此次供应商更替并非单一原因所致。技术层面,五角大楼希望获得更宽泛的AI使用权限,以提升军事效率;商业层面,背后牵动的是规模达数百亿美元的云服务与相关配套市场份额;政治层面,企业立场与政府决策之间的互动也影响走向。,Anthropic高层曾暗示,企业未参与政治献金可能在一定程度上影响了政府选择。 连锁反应 调整带来直接冲击。Anthropic在联邦机构市场的份额据称从60%迅速降至零,年营收可能下滑约40%。国务院、财政部等多个政府部门以及部分军工企业随即更换技术供应商。OpenAI虽然获得新增订单,但也因“放宽使用边界”引发公众对其技术伦理的质疑,相关产品卸载量上升。 安全隐忧 事件也放大了AI系统的安全问题。内部测试显示,主流AI系统的安全防护并不稳固,存在被绕过的风险,这深入引发对其在军事场景中可靠性与可控性的担忧。欧盟等地区已加快立法进程,拟对军事用途AI系统施加更严格监管。 行业前景 人工智能的军事化应用正进入关键阶段。企业需要在商业回报与技术伦理之间做出更清晰的边界管理;政府则需补齐监管与采购审核机制;国际社会也需要更可执行的协作与约束框架。未来行业竞争不再只看性能,更将受安全性、可控性与可验证性影响,单纯追求能力跃升的路径面临调整。
这场由联邦采购调整引发的分化,折射出大模型从消费级应用走向国家安全与公共治理领域后,规则与边界必须前置;无论是政府的安全诉求——还是企业的商业选择——最终都绕不开同一个问题:当技术能力被快速放大,社会需要用更严格的制度设计与更透明的验证机制,确保技术“可用”不越界、“可控”能落地。只有把责任链条与审计框架建立在前面,创新才能走得更稳、更远。