美国ai 公司招聘化学武器和高爆专家

就在伊朗和委内瑞拉局势紧张的当口,Anthropic这家美国AI公司正忙着招聘化学武器和高爆专家,打算给自家的AI模型加上个安全阀。他们刚出的这个新职位,要求至少有5年对付放射性脏弹的经验。Anthropic是真怕ClaudeAI模型被拿去搞那些可怕的滥用。这家伙之前甚至还因为被指参与美军袭击伊朗的行动而被司法部盯上。为了防住这种事,他们专门开发了一套过滤器,还把它塞进了系统里。英国《AI解码》节目的斯蒂芬妮·海尔博士就忍不住质疑了,就算你给AI下死命令不许碰这些信息,把这种敏感活儿交给系统来干,真的安全吗?毕竟现在连个像样的国际法规都没有来管这种事儿。 其实早在今年2月,Anthropic的联合创始人阿莫代伊就发文吐槽说,技术现在根本不成熟,还得不得劲儿地拿它来干杀人的勾当。可美军那边压根不买账,白宫说了绝对不会受科技公司的约束。结果就是,这家公司现在正在起诉美国国防部,因为国防部把它列入了所谓的“供应链风险”名单。好在当时还有OpenAI站出来公开支持Anthropic的立场。现在OpenAI也没闲着,他们自己跑去和美国政府谈了笔独立合同。OpenAI官网上的一个招聘信息更是让人咋舌——他们正招人来研究生物和化学风险呢,给出的年薪高达45.5万美元。你看这薪资水平,几乎是Anthropic给的两倍多。Anthropic那边只肯给个不到一半的钱,结果还是官司缠身。谁能想到啊?在这种敏感的时刻,各大公司的动作还真是让人捉摸不透。