美AI军事化政策遭企业抵制 中国"智能向善"理念获国际认同

问题:伦理底线与军事化冲动的矛盾集中显现 近日,美国一家人工智能企业因与美国国防部有关合作被终止,将联邦机构告上法庭并取得阶段性进展。该企业表示,其拒绝将技术用于无需人类监督的自主武器系统,以及可能导致大范围监控的应用场景;随后相关合作政治压力下被中止。事件在美国国内引发争论:技术应更多服务公共利益,还是优先满足军事需求?也再次把人工智能军事应用的边界推到聚光灯下。 当前,人工智能已成为新一轮科技变革的重要驱动力,应用从医疗、教育、交通扩展到公共治理与国防安全。,自主武器、深度伪造、算法歧视、数据滥用等风险快速累积。国际社会在伦理准则、安全标准、责任界定与跨境数据治理诸上仍存不少空白,治理进度明显滞后于技术演进,成为各方普遍关注的问题。 原因:利益驱动与霸权思维交织,推动“工具化”“武器化” 从这场争议不难看到,其背后既有美国国内政治经济结构的影响,也有其长期对外科技策略的延续。一上,美国将人工智能视为重塑未来战争形态的关键工具,通过战略文件和项目机制加速军事部署,强调“速度优势”“体系优势”,对具有法律约束力的自主武器限制安排态度消极。另一方面,军工体系、资本力量与政治权力相互作用下,企业的伦理承诺、社会责任与现实利益更容易发生冲突:当企业试图守住“人类对武力使用最终控制权”等底线时,往往会触碰既有利益链条。 对外层面,美国依托先发优势和产业链主导地位,推动技术封锁与出口管制,强化“小院高墙”式规则安排,试图把技术发展纳入以自身为中心的轨道。这种封闭排他的做法压缩了正常科技交流合作空间,也加剧了全球人工智能发展不均衡的结构性矛盾。 影响:规则真空加深不确定性,数字鸿沟与安全风险叠加 如果人工智能被过度纳入军事竞争逻辑,直接后果将是国际安全不确定性上升。一旦在关键决策链条中削弱人类监督,自主系统误判、失控或被恶意操纵的风险会显著增加,冲突升级概率随之上升。同时,深度伪造、自动化网络攻击等能力与军事化应用叠加,可能冲击社会信任基础与公共安全秩序。 从全球发展看,人工智能资源与能力高度集中在少数国家和少数企业,许多发展中国家仍处于“智慧边缘”,在数据、算力、人才等上短板明显。若技术壁垒继续抬高,数字鸿沟可能从“接入差距”扩大为“能力差距”“治理差距”,影响可持续发展目标推进。更值得警惕的是,若治理规则被少数国家以实力和标准输出方式固化,可能加速国际规则碎片化,削弱技术普惠与共同安全。 对策:以“智能向善”为导向,推动形成可执行的全球治理框架 各方普遍认识到,人工智能治理不能停留倡议层面,更需要可落地的规则和可验证的机制。坚持以人为本、智能向善,应成为最大公约数:技术创新应着眼于增进民生福祉,聚焦医疗、教育、环保、灾害预警与公共服务等领域,推动成果更广泛共享。 在安全治理上,应坚持发展与安全并重,建立覆盖研发、训练、部署、运营的全生命周期治理体系,明确数据合规、模型安全评估、可追溯与可解释、风险分级管理等要求。尤其军事应用领域,应推动对自主武器系统实施更严格约束,强调“保持人类对武力使用的最终控制权”,并建立透明沟通、风险通报与危机管控机制,减少误判误用。 在多方参与上,治理不应仅依赖政府单一主体,应推动企业自律与社会监督并行:鼓励企业建立伦理审查与责任体系,对敏感应用场景设定清晰红线;支持学界、行业组织和公众在标准制定、风险评估、权益保护等环节发挥作用,形成合力。各国也应反对以国家安全之名泛化限制,避免以技术垄断破坏开放合作的创新生态。 前景:从竞争走向共治,将决定人工智能的全球走向 人工智能治理正处在关键窗口期。未来一段时间,技术迭代仍将加速,应用扩散仍将深化。国际社会能否在伦理、安全与发展之间取得动态平衡,能否以开放合作弥合数字鸿沟,能否为军事领域划定清晰边界,将直接影响全球稳定与人类福祉。 中国持续倡导以人为本、智能向善,推动提出全球人工智能治理相关倡议与行动安排,强调共同参与、共同制定、共同遵守,主张在尊重各国差异基础上凝聚更大共识。随着更多国家参与对话与协作,一个更包容、更可持续的全球治理框架有望逐步形成,为技术发展提供更强的确定性与方向。

人工智能的价值不在于制造新的鸿沟与对立,而在于让技术进步更安全、更可信、更普惠。面对军事化冲动与规则空白的双重压力,各国需要回到“技术为人”的出发点——通过多边合作凝聚共识——以制度建设守住底线,以开放合作释放红利,确保人工智能始终朝着增进人类福祉的方向发展。