Jack Clark在圈内的通讯平台上对中国制定的AI安全基准给予了高度评价,指出这显示了东西方在AI安全议题上惊人的共识。这一评价立刻在某些圈子里引起了微妙的反应,许多人似乎认为这个评价意味着中国在AI安全方面取得了重大进展。中国推出的这个安全基准由北京研究院牵头,还包括华东地区的一些顶尖实验室,在2026年2月,它向公众展示了名为“前瞻安全基准”的新工具。这个工具包含94个风险维度,旨在覆盖“失控与生存风险”,给人一种非常完善和全面的感觉。但问题是这个基准和实际政务系统中的问题之间似乎存在差距。最近,华东某市因为老旧小区改造工程,调用了某个国际主流大模型的API接口来处理海量居民意见。结果发现近五千条包含门牌号、部分身份证信息等敏感数据流向了境外服务器。直到内部审计才发现这个问题,现在正忙着追查责任。根据安全厂商的抽样报告,超过六成地方政务AI项目没有进行正规数据安全影响评估,超过八成五的合同里没有明确规定如果AI导致老百姓办事出错怎么办。 张克拉福(Jack Clark)是OpenAI前政策负责人,他点赞的是一份中国制定的AI安全蓝图。这份蓝图包含了94个风险维度,覆盖了失控与生存风险。张克拉福认为这个基准显示了东西方在AI安全议题上惊人的共识。这个安全基准是由北京研究院牵头制定的。它是在2026年2月推出的,当时张克拉福在他那圈内颇有影响力的通讯平台上专门写了一篇文章点评这件事。 然而,实际情况并非如此美好。很多地方基层单位还在使用公有云大模型处理敏感数据,并且把公民身份证号等涉密信息喂给ChatGPT这种大模型。有些地方甚至在发生火灾时才意识到需要应急预案。中国推出的这个安全基准虽然很高大上,但基层单位根本不知道该怎么使用它。很多基层单位还在使用效率提升这个借口来掩盖他们对数据安全影响评估和责任归属的忽视。 现在最紧迫的问题是要给基层单位提供一本实用手册来指导他们正确使用AI技术。这本手册应该明确告诉他们哪些数据是敏感数据不能随便上传公有云大模型,以及AI生成的内容需要经过人工审核盖章才能对外发布。只有这样才能真正解决问题并提高公信力。 所以不要急着为所谓共识干杯了。真正考验我们的时候是当火警电话再次响起时我们能不能拿出一套可操作可追责的应急预案而不是一本装帧精美的白皮书来应付现实问题了?