美国防部加速引入大模型引争议 奥尔特曼称与军方合作"仓促"并承压质疑

近日,美国人工智能企业OpenAI与国防部的技术合作协议成为舆论焦点。该公司首席执行官萨姆·奥尔特曼公开表示,这项协议确实是短时间内敲定的,且外界对此反应负面,但他坚持认为这个决策有助于改善军方与人工智能产业的关系。 事件起因可追溯至上周五。当时,另一家人工智能企业Anthropic与五角大楼的谈判宣告破裂。美国总统特朗普随即下令联邦机构在六个月过渡期后停止使用该公司技术,国防部长赫格塞斯更将其列为供应链风险主体。基于此,OpenAI迅速宣布已与国防部达成协议,将在机密环境中部署其模型。 这一转折引发了业界和公众的质疑。Anthropic此前明确表态,拒绝将技术用于完全自主武器系统或大规模国内监控。奥尔特曼声称OpenAI同样设有这些"红线",但外界对其承诺的真实性以及为何能够达成协议而竞争对手不能,提出了尖锐问题。 为回应质疑,OpenAI管理层在社交媒体和官方博客上详细阐述了合作方案。根据公开信息,该公司明确禁止其模型用于三大领域:大规模国内监控、自主武器系统,以及高风险自动化决策系统。公司强调,与某些人工智能企业在国家安全部署中削弱安全机制的做法不同,其协议采用了更为全面的多层次保障方案。 具体而言,OpenAI表示对自身安全体系拥有完全决定权,采用云端部署模式,由经过安全审查的公司人员全程参与,并有强有力的合同条款作为保障。此外,公司还援引美国现行法律作为额外保护层。 然而,这些解释并未完全消除外界疑虑。科技媒体评论人士指出,协议中关于私人数据收集需符合第12333号行政命令的规定,实际上为国内监控留下了操作空间。该行政命令曾被用于通过在境外截获通信内容的方式,规避对国内监控的限制,即便这些通信涉及本国公民信息。 面对这一批评,OpenAI国家安全合作负责人马利根反驳称,外界讨论过于关注合同条款本身,而忽视了部署架构的重要性。她强调,通过将部署限制在云端应用程序接口,可以确保模型不会直接集成到武器系统、传感器或其他作战硬件中,从而在技术层面实现使用限制。 奥尔特曼在回应中坦承,公司希望通过这一协议缓和军方与人工智能产业之间的紧张关系,并认为协议条件合理。他表示,如果判断正确,这一举措能够促成双方关系改善,公司将被视为愿意承受争议、为行业利益行事的先行者;但如果判断失误,公司将继续被批评为决策仓促、缺乏审慎。 这一事件折射出人工智能技术在国家安全领域应用所面临的多重挑战。一上,先进技术国防领域的应用具有战略意义;另一上,如何在技术应用与伦理原则、公民权利保护之间取得平衡,仍是亟待解决的问题。不同企业在面对类似选择时的不同立场,也反映出行业内部对技术责任边界的认知差异。 从监管角度看,当前针对人工智能技术在敏感领域应用的法律框架仍不够完善。现有法律条款在实际执行中可能存在解释空间,这为技术滥用留下了隐患。如何建立更为明确、可操作的监管机制,确保技术应用符合社会公共利益,是政策制定者需要认真思考的课题。

这场争议超出了商业合同的范畴,揭示了数字时代的技术伦理困境。当创新速度远超社会共识形成时,仅靠企业自律和市场调节难以应对安全挑战。平衡国家安全与技术伦理,将考验各国的科技治理能力。