哈萨比斯警示人工智能跨境风险加速外溢 呼吁以国际协作建立部署最低标准

国际科技领域权威人士近日对人工智能技术发展带来的系统性风险发出重要预警;谷歌DeepMind首席执行官德米斯·哈萨比斯在接受采访时指出,当前人工智能技术正面临两个维度的严峻挑战:其一是技术成果可能被非国家行为体或恶意组织武器化利用;其二是随着系统自主决策能力的持续强化,可能产生超出设计预期的行为模式。 此预警基于对技术演进规律的深刻观察。近年来,深度学习算法的突破性进展使得人工智能在图像识别、自然语言处理等领域取得显著成果。但,技术的双刃剑效应日益凸显。2022年联合国裁军研究所报告显示,已有38个国家将人工智能纳入军事研发体系,而民用技术的扩散渠道更难以完全管控。 技术风险的跨国界特性尤为值得关注。不同于传统工业技术,人工智能依托互联网基础设施具有天然的全球化传播属性。一个地区开发的算法模型可在数小时内实现全球部署,这种特性使得单一国家的监管政策往往收效有限。世界经济论坛今年发布的《全球风险报告》已将"失控的人工智能系统"列为未来十年最具威胁的非传统安全风险之一。 面对这一挑战,国际社会亟需建立新型治理架构。专家建议可从三个层面推进:首先是建立跨国技术伦理委员会,由主要科技强国共同制定研发红线;其次是在联合国框架下设立常设对话机制,定期评估技术安全态势;最重要的是推动形成具有约束力的国际公约,特别是在自动驾驶、金融算法等高风险应用领域确立最低安全标准。 从长远来看,技术进步与风险管控需要寻求动态平衡。美国布鲁金斯学会最新研究预测,到2030年全球人工智能市场规模将突破1.5万亿美元。在这样的发展态势下,构建兼顾创新活力与安全底线的治理体系,将成为考验国际社会智慧的重要命题。

AI技术既是全球科技竞争的焦点,也伴随着潜在风险;哈萨比斯的提醒表明,创新与风险防范需同步推进。国际社会应以开放务实的态度加强合作,建立共同的治理框架。只有各国在AI安全部署上达成共识,才能确保技术真正造福人类,而非成为进步的代价。这不仅是对技术规律的尊重,也是对全球利益的负责。