问题——技术快速迭代与规则相对滞后之间,全球人工智能治理面临共同挑战。人工智能正加速进入经济运行、公共服务和国家安全等关键领域,在提升效率的同时,也带来数据安全、算法偏见、深度伪造滥用、关键基础设施脆弱性等风险。由于各国技术能力、产业基础和监管经验差异较大,国际社会在“如何识别风险、如何衡量能力、如何评估影响”上缺少共同的事实基础,对应的讨论往往停留原则层面,难以形成可执行、可衔接、可持续的治理安排。 原因——短板在于缺乏常态化、系统化、具有公信力的科学评估机制。长期以来,国际讨论更多依靠政策倡议与多边磋商,但技术更新快、应用扩展广,单靠原则宣示难以及时回应新问题。另外,技术与产业体系复杂,风险跨领域、跨边界,更需要多学科团队持续评估与研判趋势,帮助各方在同一技术语境下展开对话。联合国此次设立独立国际科学小组,意在以相对独立的科学方法和跨区域专业力量,为全球治理提供稳定、可比较的知识供给。 影响——独立科学小组有望让全球治理讨论更“同频”,也更具可操作性。联合国介绍,该小组由联合国大会任命,40名成员任期三年,从2600多名候选人中遴选,并经过多机构独立评审,强调学科覆盖、地域多元与性别平衡。小组将围绕人工智能发展机遇、潜在风险与演进趋势开展评估,形成首份报告,为今年7月在日内瓦举行的相关治理讨论以及后续全球对话提供科学依据与政策参考。机制一旦稳定运行,将有助于缩小信息鸿沟,减少认知差异带来的误判与分歧,推动治理从“原则共识”继续落到“标准工具”和“实践方案”。 对策——以科学独立性与包容性夯实多边治理基础。任命发布后,有国家提出异议。美国代表称该小组“越权”,认为人工智能治理不应由联合国主导。联合国秘书长古特雷斯则指出,在人工智能快速发展、各国能力差距明显的背景下,国际社会需要一个以严谨、独立科学洞见为基础的机制,帮助各方在同一基础上参与讨论,补上全球治理链条中的关键环节。多边治理并非取代各国监管,而是在尊重主权与发展差异的前提下,为风险识别、能力评估、影响测量与政策选择提供可核验的公共知识产品,从而提升协商效率与落地效果。 在该框架下,中国专家入选具有多重意义。宋海涛、王坚当选,体现中国在人工智能研发、产业应用与数字基础设施上的积累,也反映中国从技术参与者、市场应用者进一步走向治理贡献者。当前全球治理的难点之一,是将抽象原则转化为工程可行、产业可用、监管可管的路径。具备技术研发、平台工程与基础设施经验的专家参与,有助于把安全、发展、普惠等目标纳入同一套可评估的技术框架,使治理讨论更贴近真实应用与可验证指标。 前景——首份报告或聚焦“能力差距—风险分类—治理工具”等现实议程。结合国际社会普遍关切,未来评估重点预计包括:全球人工智能发展水平与关键能力分布、系统性风险类型划分与优先级排序、算力数据与人才供给差距、关键场景的安全基线与测试评估方法、信息共享与能力建设路径等。随着报告成果进入日内瓦相关讨论并对外发布,其影响可能体现三上:一是为多边规则对接提供共同语言,降低谈判成本;二是为发展中国家参与治理提供知识支持与能力建设抓手;三是推动形成更强调可验证、可审计、可迭代的治理体系,使治理节奏更贴近技术进步。
人工智能正在深刻改变人类社会,其治理不应成为少数国家的议题,而应是各国共同面对的课题。联合国组建独立科学小组,为各方提供了更平等参与、共同塑造治理规则的渠道。中国专家入选既是对中国对应的贡献的认可,也意味着更大的责任。面对技术变革,只有坚持多边主义、加强国际合作,才能构建更公平、包容、可持续的全球人工智能治理体系,让技术进步更好惠及全人类。