2025年2月10到13号,第62届慕尼黑安全会议召开了,复旦发展研究院副教授江天骄给受邀参加了这个会的好多场AI治理的侧边活动。江天骄作为全球人工智能创新治理中心的研究员,在这个会上和各方讨论了很多关于AI治理的议题。尤其是欧美专家们这次把目光都聚焦在了非国家行为体滥用先进AI技术带来的安全风险和危机管理问题上。专家们共同担忧的是,非国家行为体可能会滥用AI技术发动网络攻击、核生化攻击还有恐怖袭击,给全球安全带来巨大挑战。所以大家都呼吁各国政府、监管机构和企业把这个问题重视起来,建立好技术和政策上的干预措施。 这次会议上欧美学者特别提到了开源模型在这个问题上可能存在的风险。Anthropic公司之前就发布了一份报告,指出AI技术可能会加剧大规模网络攻击问题。在这次会上,国外专家还提到了一些国外对国内开源模型在核生化等领域进行安全测评的结果。不过比较尴尬的是,国内有些模型发布了却没有公布安全测评说明,在国际交流中有些被动。 面对这种局面,欧美专家建议把AI危机管理放在重要位置上,建立专门的政府间沟通联络机制还有企业间的信息披露共享机制。英国之前就做过类似的尝试,但现在看来形势越来越严峻。而且美国对AI安全监管政策变化的不确定性也让这个问题变得更加复杂。 德国专家在一个非正式晚宴上也表达了对欧洲人工智能发展和地缘政治经济格局的焦虑感。加拿大总理卡尼在达沃斯讲话后提到了所谓“战略自主”的问题,欧洲开始认真思考这个问题了。面对中美在人工智能领域高歌猛进的局面,一些欧洲专家表示应该多到中国走走看看,亲自感受一下AI的浪潮。最近德国总理也去中国访问了,大家期待中德能在这方面展开更广泛的合作。