人工智能技术正在深刻改变人们的生产生活方式。
然而,这场技术革新在带来便利的同时,也暴露出一系列亟待解决的安全隐患。
国家安全部门近期通过多个典型案例,系统揭示了当前人工智能应用中存在的主要风险点,并针对性地提出了防范建议。
数据隐私保护边界模糊成为首要隐患。
国家安全部门发现,一些单位在应用人工智能技术时,直接使用开源框架建立联网大模型系统,却忽视了基础防护措施。
据公开案例,某单位工作人员在处理内部文件时,违规使用开源人工智能工具进行数据处理。
由于计算机系统默认开启公网访问权限且未设置密码保护,导致敏感资料遭到境外IP地址的非法访问和下载。
这一事件充分说明,技术应用的便利性与安全防护之间存在严重脱节。
许多使用单位和个人对开源工具的安全风险缺乏充分认识,将涉及国家机密、商业秘密和个人隐私的重要数据输入系统,无异于将"钥匙"交给了潜在的攻击者。
深度伪造技术滥用威胁国家安全。
基于深度学习算法的深度伪造技术能够逼真地模拟和伪造图片、音频及视频内容,这项技术本身具有两面性。
在正当应用领域,它可以服务于娱乐、教育等产业;但一旦被恶意利用,后果极其严重。
国家安全机关已经发现,某些境外反华敌对势力通过深度伪造技术生成虚假视频,试图向境内传播,以此误导舆论、制造恐慌,对国家安全构成直接威胁。
这类虚假信息具有高度的迷惑性,普通网民难以识别真伪,容易被动员参与传播,从而扩大社会影响。
防范此类风险需要在技术监管、内容审核、舆论引导等多个层面采取综合措施。
算法偏见问题不容忽视。
人工智能系统的判断结果取决于其学习的训练数据质量。
如果训练数据本身存在社会偏见或代表性不足,大模型就会将这些偏见放大和固化,甚至产生系统性歧视。
国家安全部门的测试表明,某些人工智能系统存在明显的西方视角倾向。
当用中英文向同一系统提问涉及历史的问题时,英文回复会有意回避、淡化某些重要历史事实,甚至提供包含错误信息的内容,而中文回复则相对客观准确。
这种算法偏见在政治、历史、意识形态等敏感领域的危害尤为突出,可能误导公众认知,影响舆论导向。
为有效防范人工智能应用中的安全风险,国家安全部门提出了三条核心守则。
其一是划定人工智能的"活动范围",实现权限最小化原则。
联网人工智能系统不应处理涉及国家机密的数据,语音识别工具不应无限制收集环境音频,智能助手不应保存支付密码等敏感信息。
同时应关闭"数据共享""云空间同步"等不必要的访问权限,从源头减少数据泄露风险。
其二是定期检查"数字足迹",养成良好的数据卫生习惯。
用户应定期清理人工智能聊天记录、及时修改工具密码、定期更新防病毒软件、检查账号登录设备。
此外,要避免随意下载使用来源不明的大模型程序,对要求提供身份证号、银行账户等敏感信息的请求保持高度警惕。
其三是优化人机协作方式,提升用户的辨别能力。
向人工智能系统提问时应在提示词中明确禁止过度推演,要求系统显示信息来源和思考过程,对重要信息进行跨平台交叉验证。
特别是在涉及政治、历史、意识形态等敏感话题时,用户必须保持独立思考意识,辩证审视人工智能的回答,防止陷入"人工智能幻觉"——即系统生成看似合理但实际上虚假或错误的内容。
技术进步从来不是无条件的“免费午餐”。
大模型等新技术带来效率跃升,也带来边界重塑与风险叠加。
越是处在智能化加速期,越要把安全意识、制度约束和技术防护同步推进,做到用得起、用得稳、用得安全。
守住数据和安全的底线,才能让智能化真正成为推动高质量发展的可靠力量。