李艳:anthropic 风波背后的ai 军事化风险

李艳:我是中国现代国际关系研究院科技与网络安全研究所所长,来跟大家聊聊Anthropic风波背后的AI军事化风险。这事绝不仅仅是美国内部的一场分歧,它其实是技术、权力、战争和伦理的一次激烈碰撞。2025年夏天,美国国防部主动给Anthropic抛出橄榄枝,给了两亿美元的合同,把Claude模型放进美军涉密网络,让它帮忙做情报分析、战场模拟和网络防御。结果短短半年后画风就变了。今年1月,五角大楼让Anthropic把模型里两项安全限制取消掉,一个是不准用在国内大规模监控上,另一个是不准用在全自主致命性武器上。Anthropic面对军方的要求没立刻答应,犹豫了一下就被施压了。2月下旬国防部长发了最后通牒,要么无条件服从,要么取消合同、列入黑名单。CEO阿莫迪还是没松口,只肯支持防御性用途和逐案审查军事需求。最后通牒当天,Anthropic就被列为国家安全供应链风险实体,联邦机构都把它停用了。这边OpenAI赶紧接盘,接受了政府的所有条款,把Anthropic原本的活儿接了过来。 其实类似的事儿在美国科技史上挺常见的。2015年圣贝纳迪诺发生恐怖袭击后,FBI逼着苹果开发破解手机的工具,结果遭到库克以用户隐私为由拒绝了。最后是靠第三方破解手机收场。那次争的是数据隐私和政府权力的边界,这次Anthropic面对的是AI军事化和伦理底线问题。不管是苹果还是Anthropic,只要不能满足美国政府的要求就会被“收拾”。阿莫迪说现在AI发展太快了,算力每四个月就翻一倍。他说作为开发者他们最清楚没有限制的应用有多危险。不过他们到现在都没收到正式的官方文件,封杀和指控都是在社交媒体上进行的。 大家更关心的是Anthropic被封杀背后让人不安的真相:AI军事化可能失控了。据说美以对伊朗的军事行动中被封杀的Claude模型还在战场上发挥作用:融合多源情报、快速生成战场态势、识别目标、辅助决策。虽然不知道这场战争是不是真的进入了“算法作战”新阶段,但AI军事化的趋势是很明显的。 美国政府一直在追求绝对的技术领先和拒绝国际约束。他们在联合国反对有法律约束力的自主武器系统禁令,主张自愿性准则。2026年1月国防部发布《AI加速战略》,要把AI赋能作战能力建设重塑未来战争形态;2月又在会议上拒签相关宣言。 这种把企业当成风险实体、把AI变成博弈武器的做法会加剧AI军备竞赛和安全困境。权力可以随意左右技术方向的时候风险最大的不是技术本身而是不负责任的应用。特朗普曾发推文批评Anthropic不顾国家安全。美国用实际行动告诉世界为了军事优势和地缘利益它可以随意把供应链政治化甚至把自己的企业都打风险实体。