国家安全机关提示智能设备使用“三条守则”筑牢数据与舆论安全防线

随着智能技术深度融入社会生活,其带来的安全隐患正引发国家安全机关高度关注。

记者调查发现,当前智能设备应用主要存在三类突出风险:数据边界失守、技术恶意滥用和算法决策偏差。

在医疗、教育等领域广泛应用的智能终端,暴露出严重的数据管理漏洞。

某单位因违规使用开源框架建立联网系统,导致境外势力通过未加密通道窃取敏感数据。

类似案例显示,约67%的数据泄露事件与权限管理不当直接相关。

这种安全缺口的背后,是部分机构对智能设备的过度依赖与防护意识薄弱形成的"技术信任陷阱"。

更值得警惕的是深度伪造技术的滥用。

国家安全机关近期侦破的案例表明,境外反华势力利用该技术伪造领导人讲话视频,企图制造社会动荡。

中国人民大学数字安全研究中心监测数据显示,2023年境内传播的深度伪造内容同比激增240%,其中政治类伪造占比达35%。

算法偏见问题同样不容忽视。

多语言测试显示,同一智能系统对中英文历史提问存在显著回答偏差。

清华大学人机交互实验室研究发现,在涉及领土、民族等议题时,部分系统呈现的系统性偏见误差率高达42%。

这种"数字偏见"源于训练数据的结构性缺失与价值导向失衡。

针对上述风险,国家安全机关提出三项核心防护措施:严格权限管理、定期数字清理、优化人机协作。

具体包括实施"权限最小化"原则,建立双月检查制度,以及完善提示词规范等。

中国电子信息产业联合会秘书长王卫东指出:"这三项守则既包含技术层面的硬约束,也强调使用者主体责任的软要求。

" 在监管层面,我国正加快构建智能技术安全标准体系。

今年实施的《生成式人工智能服务管理暂行办法》,首次以立法形式明确深度伪造内容的标识义务。

国家工业信息安全发展研究中心预计,2024年智能设备安全认证覆盖率将提升至85%以上。

人工智能时代的到来不可逆转,如何在拥抱技术红利的同时筑牢安全防线,考验着国家治理智慧与社会协同能力。

从完善制度规范到提升公民素养,从强化技术监管到培育安全文化,唯有多措并举、系统施策,方能确保智能技术在法治轨道和安全框架内健康发展,让科技创新真正服务于人民福祉与国家长治久安。

这既是当下的紧迫任务,更是面向未来的战略抉择。