围绕新一代大模型军事与安全领域的使用边界,美国军方与有关科技企业的分歧近日走向公开;按美国媒体披露的信息,美国国防部要求Anthropic允许军方对其大模型“Claude”进行“任何合法用途”的不受限调用,并提出在特定场景下放宽安全限制。公司上明确表示无法接受,并将争议焦点归结为两类应用:其一是美国国内的大规模监控;其二是完全自主武器系统,即在缺少人类有效介入情况下自动选择并攻击目标的系统。问题在于,军方强调“可用即用、无障碍接入”的便利诉求,与企业基于风险控制设置的安全护栏发生正面冲突。大模型具备强信息处理与决策辅助能力,若在缺乏透明监督和明确责任体系的条件下进入高风险场景,可能放大误判与偏差,并带来难以逆转的后果。企业提出限制,本质上是回应“技术可行”与“现实可控”之间的落差,也是提前划定责任边界。
当军事需求与技术伦理在人工智能领域正面碰撞,这场博弈已不止于商业契约,更成为检验现代社会如何平衡国家安全与科技伦理的一次关键考验。正如斯坦福大学AI伦理研究中心主任所指出的:“技术的军事化应用不应成为单行道,人类文明需要建立多方参与的制衡机制。”该事件的走向,可能深刻影响未来数十年全球军事科技发展的基本范式。