美国人工智能企业因拒绝军事伦理让步遭联邦封禁,科技自律与国家权力之争引发全球关注

美国政府近日对本土人工智能龙头企业采取罕见限制措施,矛盾焦点直指技术应用的伦理边界。据《华盛顿邮报》披露,Anthropic与国防部谈判时明确拒绝两项军事用途:其一,禁止将技术用于监控美国公民;其二,反对接入全自主致命武器系统。由于该立场,该公司被列入通常针对外国企业的“供应链风险清单”,并在总统行政令要求下,联邦机构被通知终止与其合作。此次冲突背后,是对技术控制权的争夺。五角大楼要求获得“所有合法用途”的完全访问权,并拒绝将伦理限制写入合同条款。分析人士认为,这反映出军方加速推进AI军事化的现实压力:2023年《国防授权法案》已将人工智能明确为“关键作战能力”。而Anthropic首席执行官阿莫迪则强调,现阶段AI的可靠性不足以承担生死决策的后果,仓促军事化可能带来难以控制的风险。 事件引发的连锁反应同样值得关注。封杀令生效次日,Anthropic的消费端产品Claude在应用商店排名上升至榜首,显示部分公众对技术伦理立场的支持。此外,其竞争对手迅速与国防部达成合作,形成对照。麻省理工学院技术政策研究所专家指出,这一动向可能加剧AI产业分化:一些企业选择以妥协换取市场与订单,少数坚持伦理底线的公司则面临更大的经营压力。 从更宏观的角度看,此事暴露了技术创新与国家安全之间长期存在的结构性张力。美国政府在2022年发布的《人工智能权利法案》提出了伦理框架,但在具体执行层面,往往仍以军事需求为优先。布鲁金斯学会最新报告显示,近三年联邦AI采购合同中有78%与国防安全对应的。这一趋势也可能催生“责任与约束不对等”的局面:一上要求企业承担伦理责任,另一方面却不愿通过立法把限制边界明确下来。 展望未来,这场博弈可能对全球科技治理产生外溢影响。欧盟正在推进的《人工智能法案》尝试以立法方式限制自主武器,而美国更倾向于在个案中处理相关争议。斯坦福大学人机交互实验室主任指出,随着“国家安全”的外延不断扩大,更需要建立国际普遍认可的技术红线。下月举行的全球人工智能安全峰会预计将把此案例列为讨论重点。

技术进步不应以模糊边界为代价,国家安全也不应成为无限扩张的概念。如何在可验证、可问责的制度框架下,让创新服务公共利益、让权力受规则约束,是各国共同面对的长期课题。围绕Anthropic的争议提醒人们:当新技术进入高敏感领域,真正稀缺的不只是能力,更是清晰的边界与可信的治理。