拿美国的大片《终结者》做例子,蒋斌大校刚才就发出了警示。3月11日下午,国防部新闻局的蒋斌大校还有国防部新闻发言人给大家讲了讲最近关于军队的事。有记者问:听说美国国防部想让美科创公司无条件给军方用AI技术。美国在打委内瑞拉和伊朗的时候,大堆AI工具都上场了,大家都挺担心这会搞乱战争的规则。您怎么看? 蒋斌说:让AI没有节制地去打仗,当成侵犯人家主权的家伙,让AI把决定权全拿走,让机器决定谁生谁死,不光是破坏了打仗该有的规矩和责任,还可能搞得技术失控,真的把电影里的那些坏场面给变成现实。 跟这个比起来,中方一直认为要用“以人为本、智能向善”的原则来管AI。我们一直认为AI应该由人来掌控方向,反对谁用新玩意儿去抢绝对霸权、去动人家的地盘和安全。我们愿意和其他国家一起推进联合国牵头的多边治理过程,把风险控住管好。 再往前说说这个事。据新华社报道,美国有一家AI公司叫Anthropic,他们在9号把美国联邦政府给告了。他们说因为在怎么用产品上有分歧,结果就被对方打击报复了。 据外媒说,1月份美军强行控制委内瑞拉总统马杜罗的时候用了这家公司的AI模型帮忙;另外一次对伊朗动武的时候也用了他们的技术。五角大楼那边的消息显示Anthropic和美国国防部闹别扭的原因主要是:Anthropic想限制一下国防部怎么用他们的AI技术,不想让它去管那种全自动杀人的武器,也不想给美国搞大规模的国内监视;但是国防部说他们有权“合法使用”AI技术。 就在5号这天,美国国防部宣布正式把Anthropic列为“供应链风险”的对象了。这意味着国防部和防务承包商不能在相关项目里用Anthropic的AI技术。 还有就是美国总统特朗普之前让联邦政府所有机构都别用Anthropic的产品,但给留了6个月的过渡期作为缓冲期。