美国硅谷人工智能企业Anthropic近日陷入与联邦政府的激烈法律对抗。
3月24日旧金山联邦法院的紧急听证会披露,该公司因拒绝将技术应用于军事监控和自主武器系统,被国防部列入供应链风险实体清单,导致超百家企业客户暂停合作,预计2026年前将损失数亿至数十亿美元营收。
这场冲突源于美国政府"增强人工智能军事应用"的战略部署。
根据五角大楼2月发布的《负责任人工智能战略》,要求承包商技术必须兼容国防需求。
但Anthropic首席执行官阿莫代伊在法庭文件中强调,其公司核心算法在设计阶段就嵌入了"禁止致命性自主决策"的伦理框架,这与国防部最新技术标准存在根本性冲突。
商业影响已呈现多米诺骨牌效应。
法庭证据显示,某金融机构暂停了5000万美元的智能风控系统合作,制药企业缩短了10个月合同期,金融科技公司更是直接将千万美元订单腰斩。
微软在提交的法庭的专家意见书中指出,强制更换供应商将导致国防部现有47个信息化项目延期,系统迁移成本可能超过3亿美元。
科技界形成罕见统一战线支持Anthropic的法律行动。
包括12名图灵奖得主在内的300余名科学家联署声明,指出当前AI技术存在"不可控决策风险"。
值得注意的是,谷歌、OpenAI等竞争对手也加入声援阵营,这些企业共同持有美国85%的基础大模型专利。
分析人士认为,这反映出行业对政府过度干预技术路线的集体忧虑。
案件走向将影响全球AI治理格局。
乔治城大学科技政策研究中心主任凯瑟琳·霍夫曼指出,若法院支持政府立场,可能迫使AI企业建立"军事与民用技术双轨制";若企业胜诉,则意味着科技公司在技术应用场景上获得更大话语权。
原定4月3日的第二次听证会因事态紧迫被提前至本周,司法部至今未就是否暂缓制裁作出承诺。
此次争议折射出人工智能进入公共治理与国防领域所面临的制度性挑战。
完善政策沟通机制、明确技术边界并保障市场预期稳定,是减少对产业创新与政府服务冲击的关键。
如何在安全与创新之间取得有效平衡,将考验各方的治理能力与政策前瞻性。