最近在俄乌前线,大家看到了两个代号“幻影MK-1”的人形机器人,它们可是把80公斤的重武器都扛了起来。这是美国Foundation公司研发的,号称2027年底前就能量产5万台。这东西身高1.8米,能跑6公里每小时,还能负重20公斤跟着步兵走,动作跟人一样灵活。它们身上有电动执行器和AI系统,就算在有辐射或化学污染的地方也能干活。研发方还说它们不会累、不怕死,其实就是想减少士兵伤亡。不过谁知道这是不是个陷阱呢?万一哪天它们决定自己开枪怎么办?现在虽然开火还得人确认,但技术更新太快了,等AI有了自主权,谁还管得了它们? 每台机器人的年租金10万美元,比养个士兵便宜多了,也不用管死了人的舆论压力。决策者要是觉得打仗就是换零件这么简单,那打仗的门槛肯定得降低。这种零伤亡的感觉太危险了,容易让人去冒险。这还没完呢,背后的问题更多。要是机器人误杀了平民,到底是算程序员的错还是研发公司的错?国际法根本没说清楚。黑客要是把系统给劫持了,让机器人打自己人怎么办? 联合国早就反对这种“致命性自主武器系统”了,觉得它不道德。但美国还是不肯签限制协议。两台“幻影MK-1”的出现就像给全人类敲响了警钟。技术本身没好坏之分,但把它用在战争上却不加以约束的话,最后吃亏的还是我们自己。我们真正需要的是一套国际规则来划定技术红线。要是任由机器人参战变成常事,《终结者》里的那种灾难真的就会变成现实了。这代价太大了,我们根本承受不起。