在全球技术竞争格局深刻演变的背景下,人工智能治理正成为国际社会面临的重大命题。
12月28日,由全球人工智能创新治理中心主办的专题研讨会上,来自多国智库的专家学者系统剖析了当前治理体系的结构性矛盾。
问题现状呈现多维复杂性。
数据显示,近三年全球人工智能监管政策数量增长超300%,但跨国标准协调度不足40%。
美国依托技术优势推行单边主导策略,欧盟通过《人工智能法案》强化风险分级监管,中国则实施“安全与发展并重”的双轨制治理。
这种差异化路径虽体现各国发展阶段特征,却加剧了规则“巴尔干化”现象。
深层矛盾源于三重张力。
技术层面,大模型迭代速度已超越现行监管框架更新周期;利益层面,发达国家技术垄断与发展中国家数字主权诉求形成对冲;伦理层面,算法偏见等新型风险挑战传统法律边界。
尤其值得注意的是,目前全球83%的AI算力集中于北美和东亚,南北技术鸿沟持续扩大。
这种失衡将产生连锁反应。
短期可能引发技术标准割裂,增加跨国企业合规成本;中长期或导致治理体系“中心-边缘”固化,削弱发展中国家话语权。
联合国开发计划署报告显示,若维持当前趋势,到2030年最不发达国家AI应用普及率可能落后发达国家15年以上。
针对上述挑战,会议提出系统性解决方案。
在机制建设上,建议依托G20、金砖机制等平台建立常设性治理对话渠道;在规则设计上,倡导“敏捷治理”模式,通过沙盒监管平衡创新容错与风险防控;在能力建设方面,主张将AI基础设施纳入全球公共品供给范畴,发达国家承诺每年转移不少于GDP0.2%的技术援助资金。
中国方案备受关注。
复旦大学国际问题研究院学者指出,我国在数字丝绸之路框架下已与17国签署AI合作备忘录,杭州人工智能伦理研究中心等机构正牵头制定跨境数据流动“软法”标准。
这种兼具包容性与实操性的路径,为破解治理僵局提供了新思路。
人工智能的影响正在从技术层面快速延伸至经济社会与国际治理层面。
把握未来5至10年的关键窗口期,既需要各国在差异中寻找最大公约数,也需要在发展与安全之间建立更可操作的平衡机制。
唯有以开放协作凝聚共识、以包容发展弥合鸿沟、以事前塑形提升治理效能,才能让技术进步更多转化为全球共同福祉,并为更加公正合理的国际治理体系注入新动力。