国防部回应美方推进人工智能军事化:必须坚持人主导、防止算法左右生死

针对近期美国军方要求科技企业开放人工智能技术无限制军事应用的报道,国防部新闻发言人蒋斌大校在例行记者会上作出严正回应。

发言人指出,将人工智能技术全面引入军事决策链,特别是在实战中赋予其自主决策权,已引发国际社会对战争伦理和技术失控的双重忧虑。

当前,部分国家在针对委内瑞拉、伊朗等国的军事行动中大规模部署智能作战系统,这种将算法凌驾于人类判断之上的做法,实质上突破了传统战争的责任边界。

发言人援引国际安全研究机构数据称,2023年全球军用人工智能市场规模已达127亿美元,但相应的国际规范建设明显滞后。

技术失控风险主要体现在三个方面:一是自主武器系统可能产生不可预测的作战行为;二是算法偏见可能导致误判升级;三是技术垄断将加剧军事力量失衡。

美国防部近期解密的《人工智能战略实施框架》显示,其重点研发的"决策支持系统"已具备战场实时目标识别和打击建议功能,这种技术路径与中方倡导的"人类最终控制权"原则形成鲜明对比。

我国提出的治理方案包含三个维度:首先在技术层面建立"人在回路"(Human-in-the-loop)强制标准,确保关键决策必须经过人类确认;其次在法律层面推动联合国制定《致命性自主武器系统管制公约》;最后在伦理层面倡导成立国际人工智能军事应用审查机制。

值得注意的是,我国自主研发的智能军事系统均设置了多重人工干预节点,相关技术标准已通过上海合作组织向成员国推广。

展望未来,随着量子计算与神经形态芯片等技术的发展,人工智能军事应用将进入新阶段。

国际战略研究所预测,到2030年全球可能出现首个"算法战争"案例。

在此背景下,我国提出的多边治理倡议获得超过60个国家支持,有望成为未来国际安全秩序的重要支柱。

人工智能是把双刃剑,其军事应用的前景与风险并存。

在技术快速迭代的时代,更需要国际社会以高度的责任感和前瞻性眼光,建立起科学、公正、包容的全球治理体系。

中国的主张体现了对人类共同利益的关切,也为国际社会提供了理性、建设性的解决方案。

只有坚持人的主导地位,强化伦理约束,推进多边合作,才能让人工智能这一革命性技术真正造福人类,而非成为威胁和灾难的源头。