分类分级织密人工智能安全治理网:严管高风险场景、为低风险创新留足空间

当前人工智能技术已深度融入经济社会各领域,其双刃剑效应日益凸显。

卢卫在论坛主旨发言中系统阐释了我国人工智能安全治理的路径选择,直指行业发展的核心矛盾——如何在激发创新活力与防控系统性风险之间取得平衡。

问题层面,技术泛化应用催生新型风险。

据行业监测数据显示,2022年全球人工智能安全事件同比增长67%,呈现出犯罪手段智能化、风险传导跨域化的特征。

自动驾驶决策失误、医疗诊断算法偏差等案例,暴露出技术可靠性不足的短板;而深度伪造、算法歧视等现象,则加剧了公众对技术应用的信任危机。

究其原因,在于治理体系与技术创新存在"时差效应"。

卢卫分析指出,传统"一刀切"监管模式难以适配人工智能的迭代速度,部分领域出现"技术先行、治理滞后"的被动局面。

更值得注意的是,约75%的安全漏洞源于研发阶段防护机制缺失,暴露出企业重功能开发轻安全设计的倾向。

这种失衡已产生显著影响。

一方面,欧盟人工智能法案等国际规则加速成型,技术治理成为全球竞争新维度;另一方面,国内调研显示,43%的受访企业对部署AI系统持观望态度,主要顾虑来自合规风险与责任界定不清。

这种"寒蝉效应"可能制约产业高质量发展。

对此,卢卫提出三方面对策:技术层面推行"安全原生"开发模式,将对抗训练、差分隐私等防护措施前置到研发环节;信任层面建立算法透明机制,要求高风险系统提供决策溯源功能;制度层面构建动态治理体系,在《网络安全法》框架下制定场景化实施细则。

值得关注的是,其倡导的"分类分级"治理思路已在上海浦东新区开展试点,对智能网联汽车实施道路测试分级管理,取得初步成效。

展望未来,随着《全球人工智能治理倡议》等国际共识逐步落地,人工智能治理将呈现三个趋势:监管重点从技术本身转向应用场景,治理主体从政府主导转向多元协同,合规要求从静态达标转向动态适配。

我国正在推进的"敏捷治理"模式探索,有望为全球治理贡献东方智慧。

人工智能技术的发展已成为推动社会进步的重要力量,但其安全治理同样关乎国家安全和人民利益。

卢卫提出的"技术+信任+制度"三管齐下、"分类分级"精准施策的治理思路,既体现了对技术发展规律的尊重,也体现了对社会安全需求的重视。

在人工智能加速迭代的新时代,只有坚持这样的科学治理理念,建立更加完善的制度体系,才能真正让人工智能技术造福人类、服务社会,为经济社会高质量发展提供有力支撑。