在旧金山的Anthropic公司,最近遭遇了一场大危机。这家专注于AI安全的初创公司,竟然和美国国防部闹僵了,威胁要终止他们价值2亿美元的合作。事情的起因,是军方希望Anthropic能把AI技术开放给他们用,特别是用到军事领域。可Anthropic坚决不同意,他们觉得自己的技术不能用来监控民众,也不能造那种完全自主的杀人武器。 军方觉得这个限制太过分了。他们给Anthropic、OpenAI、谷歌和xAI这些AI巨头施压,要求把软件全部放开。Axios报道说,OpenAI、谷歌和xAI都已经松口了,只有Anthropic态度最硬。他们明确规定了两条红线:不能用Claude这个模型去监控美国民众,也不能用来开发那种不需要人管就能自己开火的武器系统。 有一次,Anthropic甚至还问军方,Claude是不是被用到了实战中去。结果军方的人很生气,说这种事后审查根本不现实。他们觉得打仗的时候哪能停下来和软件供应商商量怎么用呢? 这就看出双方文化冲突有多严重了。据Axios说,Anthropic在所有AI实验室里算是最有意识形态的一家。他们内部管得特别严,就连自己的工程师对军方的业务都有不同看法。 五角大楼现在也挺难办的。虽然摩擦不断,但他们也承认在涉密项目里Claude的表现确实比其他产品好很多。如果实在谈不拢,他们暗示会把Anthropic列为供应链风险方,找替代品代替它。 不过Anthropic还是坚持要维护国家安全,还强调自己是第一个把模型接入涉密网络的公司。现在双方还在沟通当中呢。