咱们都知道,现在AI发展特别快,像Deepfake这种技术,有人就用来干坏事了。最近有个例子特别典型,2025年8月,张某、谢某和赵某这三个人,因为触犯法律被判刑了。谢某为首的犯罪团伙,他们想靠卖茅台赚钱,就从赵某那儿买了大量公民的身份证号、手机号还有头像照片,数量高达3400多条。然后张某用AI的深度伪造技术,把静态的照片变成会眨眼的动态视频,成功骗过了某个销售平台的人脸识别验证。就这样,他们一年多时间抢了60多瓶茅台,非法获利2.8万余元。 这个案子让咱们看到了不少风险。第一,个人信息保护太脆弱了。犯罪分子能轻易搞到几千条精确信息,这说明买卖个人信息的黑市很活跃。一旦这些信息配上强大的AI伪造技术,光靠名字、身份证号或者照片去验证,根本就不灵了,咱们的财产和隐私都可能受到威胁。 第二,AI深度伪造技术对生物特征识别的安全认证体系构成了挑战。人脸识别本来很方便也很唯一,现在却被当成了“安全铁壁”给攻破了。要是伪造的视频能以假乱真,不光能让人骗钱,还可能被用来突破更高级别的系统,这会直接威胁到社会秩序和国家安全。 第三,新技术背景下国家安全风险点发生了变化。国家安全机关说,AI的风险已经从宏观层面渗透到了微观层面。除了国内的犯罪分子用它来犯罪,境外的敌对势力也在用同样的技术制作假视频来搞乱视听、煽动对立。另外,有些单位用AI时管理不当,违规用开源工具处理敏感信息或者系统有漏洞,也容易被境外势力窃取数据导致泄密。 面对这种情况,咱们不能不管不问,也不能因噎废食。关键是要兴利除弊,建立起一套适应发展阶段的安全保障和治理体系。一方面得筑牢法治屏障。国家已经有了《网络安全法》、《数据安全法》和《个人信息保护法》,还给刑法做了完善来打击犯罪。司法机关要盯着新型犯罪手法,准确适用法律形成震慑。同时还要加快专门立法进程,明确技术开发、部署和应用各方的责任和伦理边界。 另一方面得强化技术对抗。安全本质上就是攻防对抗的过程。相关企业和科研机构要加大投入研发反制技术,比如活体检测、多模态识别、伪造内容检测等,提升系统的健壮性和可靠性。各行业在搞数字化转型和引入AI时,必须把安全评估放在前面,建立全生命周期的管理制度。 最后还得凝聚社会共识。监管部门要跨部门协作打击黑色产业链;企业要履行主体责任加强数据保护;公众也得提高数字素养和安全意识。咱们不能怕麻烦就拒绝AI的发展潜力和社会效益。技术走到哪里,安全的边界就得延伸到哪里;应用场景发展到哪里,治理规则就得覆盖到哪里。统筹发展与安全、促进创新与防范风险相统一,通过法律、技术、管理、教育等手段多管齐下,咱们才能驾驭好人工智能这把双刃剑,让它成为服务高质量发展、保障高水平安全、增进人民福祉的利器。