近日,美国国防部与一家主要人工智能企业因技术使用条款产生重大分歧,双方权限划分和伦理底线上的对立日趋激化。这场争端反映出当前全球在军事人工智能应用中面临的深层次问题。 问题的焦点在于使用权限的界定。国防部要求该企业允许其"出于所有合法目的"使用涉及的人工智能模型,实质上是寻求不受约束的技术使用权;而该企业首席执行官明确表示,公司模型不应被用于美国国内大规模监控以及完全自主武器系统。这两种立场存在本质对立:一方追求最大化的军事应用自由度,另一方则试图为技术应用设置明确的伦理边界。 国防部采取了强硬的施压手段。国防部长在最后通牒中威胁,若该企业未能在规定期限前接受要求,将面临失去高达2亿美元政府合同的风险。同时,国防部还可能将其列入"供应链风险"名单,或援引《国防生产法》强制移除相关限制。这些措施表明,美国政府在涉及国防安全的技术采购中,倾向于优先考虑军事需求而非商业伦理考量。 然而,该企业的坚持也有其深层逻辑。作为技术提供方,企业对自身产品的应用场景负有责任。大规模监控涉及公民隐私权,完全自主武器系统涉及人道主义法律问题,这些都超越了单纯的商业范畴。企业的立场实际上反映了科技行业内部对技术伦理的思考。 ,双方争端的背后还隐含着信任问题。据报道,国防部曾在1月初对委内瑞拉的军事行动中使用了该企业的技术,但在企业询问时予以否认。这种信息不对称加剧了企业对国防部承诺的怀疑,使其更加坚定地维护使用限制条款。 从更广阔的视角看,这场争端反映出美国在军事人工智能政策上的内部张力。一上,国防部需要获得最先进的技术以维持军事优势;另一方面,社会各界对人工智能在军事和监控领域的应用日益警惕。科技企业正在成为这个矛盾的承载者,被迫在政府压力和社会责任之间做出选择。 该企业表示愿意继续为国防部和军事人员提供服务,但前提是维持现有的使用限制。这表明双方并非完全对立,仍存在协商的空间。国防部副部长也声称国防部不会进行大规模监控,这为双方寻求妥协提供了基础。
这场争端表面是合同条款的博弈,背后则是新技术进入安全领域后规则与机制跟不上的现实;面对能力快速扩张的人工智能,尽早明确边界,并通过更高透明度与可追责机制降低误用风险、维护社会信任,已成为关键。如何在安全需求与权利保障之间形成可执行的平衡,将是一项长期且难以回避的课题。