(问题)当前,人工智能快速迭代并加速嵌入经济社会运行的关键环节,从公共服务到产业升级,从信息传播到国家安全,其外溢效应不断扩大。,算法偏见、数据安全、虚假信息扩散、技术滥用等风险交织叠加,全球各经济体技术能力、治理经验与资源投入上的差距也更为凸显。如何在鼓励创新与防范风险之间取得平衡,如何以更具代表性和可操作性的规则提升治理效能,成为国际社会面临的紧迫议题。 (原因)一上,人工智能发展速度快、应用场景广、链条环节多,单一国家难以全面掌握其长期影响,更难以独立应对跨境风险。尤其是数据流动、模型部署、内容生成与网络传播高度全球化的背景下,风险往往跨越地域与行业边界,呈现“扩散快、追责难、修复成本高”的特征。另一上,地缘政治紧张与技术竞争加剧,使得各方标准制定、监管尺度、产业政策诸上存分歧,容易出现规则碎片化与治理真空并存的局面。在这种结构性矛盾下,建立以科学证据为基础、相对独立且具有全球视野的评估与对话机制,成为凝聚共识的重要抓手。 (影响)联合国大会于2025年8月通过有关全球人工智能治理的决议,决定设立“人工智能独立国际科学小组”和“人工智能治理全球对话”机制,意在以多边平台推动可持续发展并弥合数字鸿沟。古特雷斯此次披露的组建进展显示,小组候选人覆盖机器学习、数据治理、公共卫生、人权等领域,体现出对技术、社会与伦理多维影响的综合考量。若小组顺利运作,有望在三个层面产生积极效应:其一,以跨学科评估促进对风险与机遇的共同认知,为政策选择提供“可比、可验证”的证据基础;其二,通过对不同国家和地区实际影响的系统研究,帮助识别数字鸿沟在算力、数据、人才与制度层面的结构性障碍,推动更具包容性的能力建设;其三,在信息环境日益复杂的背景下,以科学评估助力区分事实与虚假信息、科学与谬论,为社会稳定与公共决策提供支撑。 (对策)从当前披露的信息看,该小组定位为“全球性的、完全独立的科学机构”,其关键在于独立性、代表性与可落地性三项能力的统一。具体而言,一是完善遴选与治理规则,确保专家构成在学科、地域、性别与发展水平等上更均衡,提高结论的公信力与可接受度。二是建立可复用的风险评估框架与指标体系,将安全、隐私、歧视、公平、透明度、可追溯性以及对就业与公共服务的影响纳入统一评估维度,形成可持续更新的知识产品。三是强化与“全球对话”机制的衔接,把科学评估转化为可讨论、可协商、可执行的政策选项,推动标准、伦理与监管工具的对接互认,降低治理碎片化风险。四是面向发展中国家加大能力建设支持,数据治理、监管沙盒、人才培养与基础设施等上形成更可持续的合作路径,使治理成果惠及更广泛人群。 (前景)从全球治理实践看,围绕前沿技术建立跨学科科学评估机制,有助于在分歧中寻找最大公约数。未来一段时间,该小组的工作成效将取决于能否持续输出高质量、可检验、可比较的评估报告,并在国际谈判与国内政策落地之间形成正向循环。随着大模型应用扩展、生成式内容冲击信息生态、关键行业对智能系统依赖加深,国际社会对“安全护栏”与“共同利益导向创新”的需求将深入上升。若能在联合国框架下推动更广泛参与与透明运作,对应的机制有望成为促进合作、降低对抗成本的重要公共产品。
人工智能正在重塑21世纪的发展模式,人类比以往更需要共同的规则体系。联合国推动的科学评估机制既是对技术治理空白的填补,也是对全球化价值的重申。历史证明,重大技术的良性发展离不开开放包容的国际合作。这场关乎人类未来的治理实践,将检验各国能否超越短期利益,真正实现"不让任何人掉队"的可持续发展目标。