这事儿得从全球局势乱成一锅粥说起,大家都在琢磨AI怎么用在打仗上才安全。就在美国,做AI的企业跟军方在怎么用模型、谁来管这些问题上掐得特别凶。英国那边的《金融时报》放话了,美国的初创公司Anthropic打算把美国国防部告上法庭,因为五角大楼把它列为了“供应链风险”。上周刚过完周五,美国总统特朗普就让政府停了这家公司的产品,国防部跟着也说这公司是个国家安全的祸害。据《对话》杂志讲,这事儿是从Anthropic死守“护栏”机制开始的。今年1月,国防部突然来了个要求,让Anthropic把它的Claude模型里的两项安全锁给去掉,一个是不准国内大规模监控,另一个是不能用来自主杀人。要是这些限制都没了,这系统就能自己选目标去打。Anthropic就死活不肯松口,一直拖到国防部二月底发了最后通牒也没妥协。《卫报》还爆料说,双方其实早在强抓马杜罗那次行动后就闹掰了。那次行动后Anthropic还抗议过,说他们的条款明文写着不准用Claude去搞暴力、造武器或者监视。也是从那时候起,总统、国防部跟这家公司的关系就一路走下坡路。谈不拢以后,美国国防部上周转头跟另一家企业OpenAI签了个框架协议。可就在特朗普刚把Anthropic拉黑没几天,《卫报》又说在这个周六开始的美以对伊朗的大规模轰炸里,美国军方还是用了Claude来制订攻击计划。这事儿一出,“AI打仗怎么用”这个话题彻底炸了锅。专家们说AI的速度会比人快得多,那负责拍板的人很可能会被机器给边缘化了。伦敦玛丽女王大学的大卫·莱斯利教授还专门警告过,太依赖AI会让人脑子变笨了,决定打仗的人可能会觉得结果跟自己想的不一样,因为是机器在替他思考。Anthropic的CEO达里奥·阿莫迪更是直接说有些想法根本就没法让现在的技术安全可靠地去干。 特别值得关注的是在这场官司闹得正凶的时候,Anthropic的大模型Claude在苹果商店的下载排名冲到了第一。《商业内幕》网站说这场关于AI的纠纷很可能会重新洗牌整个行业的竞争格局。