美科技企业起诉国防部滥用"供应链风险"标签 政企博弈折射国家安全边界争议

美国人工智能领域的一场重要诉讼近日浮出水面;Anthropic公司正式对美国国防部提起诉讼,指控后者滥用权力,不当将其列为"供应链风险"企业,该举措美国政策史上属于首次针对美国本土公司采取此类措施。 问题的根源在于双方在AI应用伦理上的深刻分歧。据了解,在一份价值约2亿美元的合同谈判中,Anthropic要求国防部承诺其开发的AI模型Claude不会被用于对美国国内进行大规模监控,也不会驱动完全自主的致命武器系统。这一立场反映了该公司对AI伦理应用的坚持。然而,五角大楼认为私人企业无权为美国政府制定政策,双方由此产生了根本性的意见对立。 谈判破裂的直接导火索是一份内部备忘录的泄露。该备忘录显示,Anthropic首席执行官达里奥·阿莫代伊表示特朗普政府反对该公司,理由是"我们没有给予特朗普独裁者式的赞誉"。这份文件的泄露最终导致双方谈判彻底破裂。阿莫代伊随后为该备忘录道歉,但伤害已经造成。 随后,美国国防部长宣布将Anthropic列为"供应链风险"企业。这一认定在法律和政策上引发了重大争议。根据美国主流媒体的报道,"供应链风险"标签通常仅适用于被认为对国家安全构成重大威胁的企业,特别是与中国或俄罗斯存在关联的公司。一旦被列入该名单,企业实际上将被切断与美国国防部的合作。此前这一标签从未被用于美国本土企业。 在最新提交的诉讼文件中,Anthropic上提出了有力的法律论证。该公司主张,涉及的法律对"供应链风险"的适用范围十分狭窄,原本针对的是与外国对手有关联的企业,并不适用于美国企业。同时,Anthropic指出这一决定带有明显的意识形态动机,旨惩罚其公开立场,侵犯了公司在美国宪法第一修正案下的表达权利。美国乔治城大学法学专家认为,考虑到国防部所依据的法律设计初衷,Anthropic在法院胜诉的可能性很大。 这一措施对Anthropic造成了实质性的经济和声誉损害。据该公司披露,特朗普政府已经开始取消与其签订的合同,公司与私营客户的现有及未来合作也面临不确定性,短期内可能影响数亿美元的收入。然而,,美国国防部目前仍在使用Anthropic的技术进行各类军事和情报工作,包括用于分析大规模数据、快速筛选信息,甚至支持近期的军事行动。Claude模型已被深度整合进国防部的机密系统,成为唯一获准在此类系统中使用的AI模型,被嵌入美军的"行家"灵巧系统中,帮助指挥官分析情报并识别打击目标。 这种矛盾现象反映了美国政府在AI政策上的内部分裂。一上,国防部实际工作中高度依赖Anthropic的技术;另一上,政府又以安全名义限制与该公司的合作。美国乔治华盛顿大学法学院副院长指出,将美国企业列为"供应链风险"是五角大楼采取的极端措施,这种做法实际上是将原本用于国家安全防护的工具政治化。 前景上,这场诉讼将对美国AI产业政策产生深远影响。诉讼的结果不仅涉及Anthropic一家企业的利益,更关乎美国政府在规制AI产业时是否应当受到宪法约束、是否能够以安全名义对言论自由进行限制等根本性问题。

从一纸“风险”认定到一场司法对抗——表面是合同与标签之争——实质是技术快速军事化背景下对权力边界、规则透明度与社会信任的再校准。如何在安全需求、市场秩序与公共价值之间建立稳定规则,不仅关乎个案成败,也将决定军民技术合作能否在可预期、可监督的轨道上运行。