路透社爆料了个大新闻,美军在对委内瑞拉搞秘密行动的时候,偷偷把Anthropic家的Claude大模型给调过来用了。Anthropic发现后第一时间就写信给五角大楼核实情况,对这事儿特别上心。双方就AI怎么用的问题扯了半天皮。国防部长赫格塞思急得不行,把Anthropic的CEO阿莫迪叫到办公室,硬要让他们无条件把Claude开放给美军用。阿莫迪当时就把脸一沉,说模型的数据和价值观根本不适合在战场上用。五角大楼急眼了,直接甩出了“供应链风险”这个大棒来威胁。结果Anthropic26日回了个硬气的话:“不会变主意,模型绝对不能拿去搞国内的大规模监控和搞完全自主的武器系统。” 这事还没消停,特朗普就在27号一大早连发好几条推文骂街了,直接把Anthropic高层叫成“极端左翼疯子”,还下令所有联邦机构“立刻停用Anthropic的技术”。他还放话说要是过渡期内还不听话,就动用总统的全部权力强推。这条狠话很快把AI伦理和国家安全的这潭水给搅浑了。有人觉得特朗普这是想把舆论压力推给企业帮自己竞选造势;也有人怕政府硬来会引发一大串官司和供应链动荡。 现在的核心争议主要在三条线上:一是数据安全,军方动作大了容易暴露Claude的底细;二是价值观跑偏,把大模型拿去打仗会不会让它的道德标准变了样;三是自主武器问题,五角大楼想把它用在全自动武器上,Anthropic死活不肯答应。Anthropic拒绝军方其实就是在把供应链风险挡在门外;万一真被列黑名单了,订单没了、钱也断了。至于特朗普的“封杀令”能不能落地执行,还得看白宫到底有没有那个权力发话——这就成了接下来最大的看点。