美认定本土AI公司存供应链风险 据彭博社报道,美国国防部近日正式通知AI公司Anthropic,将其"Claude"大模型列为"供应链风险";该标签通常用于应对外国竞争对手,此次应用于美国本土企业实属罕见。根据规定,被列入名单后,国防部承包商需证明其项目未使用该模型或对应的技术,这将在采购环节形成新的准入壁垒。 军方需求与企业安全红线产生冲突 消息人士透露,矛盾核心在于技术使用边界问题。军方要求能在"所有合法用途"中自由使用AI能力,反对供应商设置限制条款;而Anthropic为模型设定了两条底线:不用于全自动武器系统和大规模监控。这种分歧反映了国家安全采购中的结构性矛盾——军方追求技术可用性,企业则强调风险管控。 三重影响正在显现 首先在政策层面出现摇摆。特朗普政府已要求联邦机构停用相关技术,但美军仍在部分行动中使用该模型,暴露政策执行的不一致。其次在商业层面引发连锁反应,承包商面临额外的合规成本和技术替代压力,部分合作企业股价出现波动。最后是行业格局变化,其他AI企业正与国防部达成新合作,允许模型进入机密网络并设置豁免条款。 寻求可行的治理方案 企业上需提供更具体的技术解决方案,如建立可验证的使用限制机制;也可通过法律途径争取更明确的规则。政府部门若过度使用"供应链风险"标签,可能影响创新生态,需建立透明的评估框架。承包商则应加强技术组件管理,完善第三方依赖的披露机制。 军用AI合作或形成新常态 随着大模型在军事领域的深入应用,未来合同可能走向"豁免条款+严格管控"模式。军方将更强调任务优先权,而企业则需证明技术的可控性。双方博弈结果或将催生更精细的制度安排,涉及审计权限、责任分担等具体条款。
此次事件超越了普通商业纠纷的范畴,触及AI时代权力与伦理的核心议题;当算法可能影响生死决策时,其使用边界关乎人类基本价值观。Anthropic事件或将成为全球AI治理的分水岭,其解决方案将为各国平衡技术创新与伦理安全提供重要参考。