美国科技企业军事合作引争议 人工智能应用伦理边界受拷问

一场围绕人工智能技术军事化应用的争议,正美国科技界与公众之间引发广泛关注。2月28日,美国人工智能企业OpenAI宣布与国防部达成协议,将其人工智能模型部署于五角大楼机密网络。消息一经公布,立即在社交媒体平台引发强烈反响,"取消ChatGPT"运动迅速蔓延。 根据美国移动应用数据分析机构Sensor Tower的统计数据,协议公布当日,OpenAI旗下移动应用在美国市场的卸载量较前一日暴增295%。相较于该应用过去30天日均9%的卸载率,该增幅显示出用户态度的剧烈转变。另外,应用下载量也受到明显冲击,协议公布后下载量环比下降13%,次日继续下滑5%。而在消息公布前一日,该应用下载量还保持着14%的环比增长态势。 此次争议的核心在于人工智能技术在军事领域的应用边界问题。尽管OpenAI首席执行官奥特曼在宣布合作时强调,协议遵循公司既定原则,即人工智能不得用于国内大规模监控,涉及武力使用的自主武器系统必须由人类负责,但这些表态未能平息公众疑虑。用户担忧的焦点集中在数据安全、隐私保护以及技术被滥用的潜在风险上。 面对持续发酵的舆论危机,OpenAI上迅速作出回应。3月3日,奥特曼社交媒体平台发文承认错误,称上周宣布与五角大楼合作时过于仓促。他坦言这一决策"看起来只是投机取巧和草率行事",并表示这些问题极其复杂,需要更加清晰的沟通。 为修复与用户的信任关系,奥特曼提出了诸多补救措施。首先,公司将修改协议条款,明确规定其人工智能系统不得被故意用于对美国公民或国民的国内监控,并禁止通过商业渠道获取的个人信息进行追踪、监视或监控。其次,公司服务将不被用于国防部情报机构,如未来向此类机构提供服务需另行修改合同。第三,公司强调希望通过民主程序开展合作,关键社会决策应由政府作出,但公司希望在决策过程中拥有发声机会。奥特曼甚至表示,如果收到违宪命令,宁愿入狱也不会执行。 此外,奥特曼指出,对应的技术在许多场景下尚未准备就绪,部分安全权衡仍未厘清,公司将与国防部缓慢推进合作,并配合技术保障措施审慎实施。 有一点是,就在OpenAI宣布合作前一天,另一家美国人工智能企业Anthropic与五角大楼因在技术应用范围问题上存在严重分歧而终止合作。据报道,在美军对委内瑞拉的军事行动中,美军方使用了该公司旗下的人工智能模型。消息曝光后,Anthropic向五角大楼求证并表达关切,最终导致双方分道扬镳。 市场反应印证了用户态度的转变。数据显示,Anthropic旗下应用Claude在2月27日的下载量环比增长37%,次日增幅扩大至51%,并于2月28日登上美国应用商店榜首,较一周前排名跃升20多位,截至3月2日仍保持领先地位。 这一事件折射出人工智能技术发展过程中面临的深层次矛盾。一上,技术创新需要应用场景支撑,政府部门作为重要客户具有现实需求;另一方面,公众对技术被滥用、侵犯隐私权的担忧日益加剧,要求企业承担更多社会责任。如何在技术进步与伦理约束之间寻求平衡,成为摆在科技企业面前的重大课题。

技术进步与国家安全并非天然对立,但在敏感领域建立信任比能力展示更为重要。企业需要将边界承诺转化为具体条款和问责机制,社会也需要通过公共讨论达成共识。只有在完善的规则和监督下,先进技术才能真正服务于公共利益。