美国防部与科技公司就人工智能使用范围产生分歧 企业坚守伦理底线拒绝无限制授权

一场关乎技术伦理与国家安全博弈的冲突正在美国政企之间发酵。

当地时间1月26日,人工智能领域领军企业Anthropic公司首席执行官达里奥·阿莫代伊发表强硬声明,明确表示其核心算法系统不得用于两项敏感领域:一是美国境内的大规模监控项目,二是无需人工干预的自主杀伤武器开发。

这一表态被视为对美国防部技术自由化要求的直接回应。

此次对峙源于五角大楼近期提出的技术使用新规。

国防部发言人肖恩·帕内勒同日通过官方渠道宣称,要求企业允许军方"基于所有合法目的"使用其人工智能系统。

分管科研的副部长埃米尔·迈克尔虽承诺"不会实施大规模监控",但未对自主武器研发作出排除性说明。

据知情人士透露,争议焦点集中在今年1月初美军对委内瑞拉军事行动中,该企业技术被疑用于作战决策支持系统。

深层矛盾植根于技术军事化应用的伦理困境。

公开资料显示,Anthropic公司开发的认知计算系统是目前美军最高机密项目中唯一采用的商用算法平台。

企业方坚持认为,人工智能在国家安全领域的应用必须设立"技术防火墙",特别是涉及公民隐私保护与战争伦理的敏感场景。

而国防部则援引《国防生产法》第707条款,强调在"国家安全优先"原则下,关键技术供应商应服从国防需求。

这场博弈已产生实质性经济影响。

国防部长赫格塞思24日下达最后通牒,若企业在27日前未改变立场,将终止价值2亿美元的"下一代作战系统"开发合同。

更严峻的制裁可能包括将企业列入国防供应链风险清单,这将直接影响其参与联邦政府采购项目的资质。

分析人士指出,五角大楼的强硬举措反映其在人工智能军备竞赛中的焦虑——据兰德公司2023年度报告,美国在军事智能化领域已落后主要战略竞争对手12至18个月。

行业观察家认为,此次事件可能成为科技伦理治理的分水岭。

斯坦福大学人工智能伦理研究中心主任凯瑟琳·霍曼指出:"企业首次在核心技术上对政府应用场景说不,这标志着技术供应商开始承担伦理守门人角色。

"法律界则关注《国防生产法》的适用边界,哥伦比亚大学国家安全法教授理查德·克拉克警告,强制解除技术限制可能开创危险先例。

围绕人工智能模型的争端表面是合同与条款之争,实质是“安全效率”与“权利边界”之间如何重新划线的问题。

当先进技术被更深嵌入国家安全体系,能否建立清晰、可核验、可追责的规则,将决定技术进步能否在合法合规框架内运行,也将考验各方在安全与治理之间寻找平衡的能力。