ai是那些没经过审批或者没人管的部门级ai 项目。报告说了有超过一半的项目没被批准过。

AI就在眼前,企业老大们选了效率,把规矩给放一边了。眼看自动化的压力越来越大,超过一半的部门搞AI项目根本没报过批,也没人管。安永那边搞了个调查,问了美国500个科技圈的高管。想赶紧把产品推出来的心思把这事给带起来了,数据显示85%的技术大头把上市时间看得比AI的规矩还重。安永的詹姆斯·布伦达奇就说,这就叫“速度悖论”,大家得在赶紧干和担责任之间找个平衡。“没有强硬的规矩,企业到了天花板就上不去了,”他说。这一折腾下来,“影子AI”已经成了日常运营的一部分。安永那边的数据也很吓人,78%的领导承认这速度太快了,管不住风险,干脆把监管给扔一边。这一不管乱子就来了。光是去年一年,就有45%的老板觉得或者怀疑是员工乱点第三方AI导致了泄密,还有39%的担心知识产权被暴露了。这也呼应了整个行业的说法,大家都怕AI用多了招来网络风险。据UpGuard的说法,工作中用没经过批准的AI工具的员工超过了80%。差不多四分之一的人觉得AI是最靠谱的消息源。Netskope一月份的报告也说了,往AI应用上塞敏感数据的事儿同比翻了一倍。这种情况下,安永发现高管们虽然心里有数这是道坎儿,但就是不愿意降速,95%的人说明年还得在AI上砸更多钱。对于首席信息官来说这简直就是两难:太慢了不行,创新就没了;太快了也不行,敏感数据、知识产权和客户信任全得露馅。现在的问题是得一边把AI铺开一边把治理跟上。UpGuard觉得光靠上课提高安全意识根本不够;Netskope也建议得把规矩弄得更细点、配置控制得更严点、还得盯着AI用了多少数据;安永那边美洲的老大肯·英格伦德说那种把安全放在前面的企业以后才能长久地发展。“投资的势头特别猛,”他在报告里写道,“那些定好了标准、加强了监控、还给员工赋能的组织,最有机会既安全又可控地实现AI梦想。” Q&A Q1:什么是影子AI?为啥会出现? 答:影子AI就是那些没经过审批或者没人管的部门级AI项目。报告说了有超过一半的项目没被批准过。主要原因是企业压力大,想自动化运营快一点;85%的技术领导觉得把产品赶紧上市比遵守规矩更重要。 Q2:影子AI有啥安全风险? 答:这玩意儿已经出了好几种事故了。比如有45%的老板确认或怀疑因为员工乱点第三方AI把敏感数据给泄露了;39%的人也提到担心知识产权的问题被暴露了。研究显示往AI应用上发敏感数据的事翻了一倍多;超过80%的员工在工作中都在用没批准过的AI工具。 Q3:企业咋平衡速度跟安全? 答:专家建议得定个标准审批工具、加强监控和安全控制,还得给员工赋能。光靠上课提安全意识不行;还得有更清晰的规矩、更强的配置控制、还有随时能看到AI是怎么用的才行。