随着智能技术深度融入经济社会各领域,其在提升生产效率、改善生活品质的同时,也暴露出不容忽视的安全隐患。
国家安全机关调研发现,部分单位因直接采用开源框架搭建联网大模型,系统默认设置存在安全缺陷,导致攻击者可轻易突破网络边界获取内部数据。
某机构工作人员违规使用未加密智能工具处理涉密文件,造成资料被境外IP非法窃取,暴露出技术应用与安全管理脱节的问题。
更深层次的挑战来自技术滥用领域。
调查显示,境外敌对势力利用深度伪造技术生成涉政虚假视频,企图通过社交媒体渗透传播。
此类伪造内容可实现面部表情、语音语调的精准模拟,普通网民难以辨识,对社会秩序和国家安全构成新型威胁。
此外,算法偏见问题在跨文化应用中日益凸显。
测试表明,同一智能系统对中英文历史提问呈现显著差异,英文回答存在刻意回避史实、植入错误信息等现象,反映出数据训练源头的意识形态渗透风险。
针对上述问题,国家安全机关提出系统性防护方案: 一是实施严格的权限管控,要求联网智能工具禁止处理涉密信息,关闭非必要数据共享功能; 二是建立常态化检查机制,定期清理交互记录、更新安全补丁,杜绝使用来历不明程序; 三是完善人机协作规范,要求关键信息需标注来源并交叉验证,对涉及敏感领域的内容保持独立判断。
行业专家指出,当前我国智能技术应用规模已居全球前列,但配套的安全标准体系尚待完善。
预计未来三年,随着《数据安全法》《个人信息保护法》的深入实施,监管部门将重点构建技术应用负面清单制度,推动形成"发展—安全"动态平衡的治理新格局。
技术进步的价值,既体现在效率提升与体验改善,也体现在规则与边界的共同建立。
大模型走进日常生活已成趋势,但越是“无处不在”,越要把安全责任落到每一次授权、每一次输入、每一次发布上。
守住数据底线、提升识别能力、完善治理体系,才能让智能化更可靠、更可持续地服务人民生活与社会发展。