技术发展不能只图快,“安全”这个“安全带”必须系上。

技术发展不能只图快,“安全”这个“安全带”必须系上。2026年刚开年,AI智能体Clawdbot(后来改名叫OpenClaw)就出了大事,黑客们利用它偷走了API密钥。到了2025年底,一款正在内测的“AI手机”提供跨应用服务,又让大家担心起隐私和财产安全来。还有车主因为AI语音失灵,开车撞上了护栏。这些事儿都说明,技术跑得太快,AI伦理问题就会跟着冒出来。企业可不能拿“用户同意”当挡箭牌,用复杂的协议或者默认勾选的方式获取不该有的权限。隐私安全不是可选项,而是能不能活下来的关键。发展AI不能以透支公众信任为代价。 全国两会期间,大家对AI的讨论特别热。代表委员们提出了不少好建议,比如禁止AI随便看手机电脑屏幕、把安全能力融入AI的全生命周期,还有严格执行“非授权不访问”的双重原则。从优化环境、培养人才,到提供数据、搞活开源生态,大家想了很多办法推动AI发展。不过大家也都提醒说,在鼓励加快发展的同时,千万别忘了治理好隐私安全这些问题。 看一组数字就能知道现在有多火:截至2025年12月,我国生成式人工智能的用户已经达到6.02亿人,普及率有42.8%。这就意味着近一半的国人已经生活在AI构建的场景里了;到了2025年年底,我国人工智能核心产业规模预计能突破1.2万亿元。产业越红火、技术迭代越快,“只看速度规模不看安全风险”的偏差就越危险。 这种时候得提醒大家:“安全带”要系好,“方向盘”要握紧。技术应该服务于人而不是代替人去做决定。比如大家用AI是想提高效率、过得更好,需要的是“参谋”,而不是“判官”。技术深入生活了,就更得有清晰的边界和让人信得过的权限机制。 要想让AI既好又安全,就得把技术突破跟制度约束、价值引导同步起来做。现在的竞争不光是比算力和算法,更是比谁的价值观更高尚。技术可以突破边界,但商业行为绝对不能越过法律和伦理的底线。只有守住了安全底线、建立了规则意识,才能真正让大家都享受到技术带来的好处。 这次艾平说得很对:人工智能产业现在正蓬勃发展着呢。只有坚持“创新不越界、便利不破安全”的原则,在创新和安全之间找到平衡点,AI才能在快速发展中不断发挥潜力,更好地造福每一个人。