ciso拿过时的老工具老技能去守它,这事儿靠谱吗?

各位听友,大家好!最近有个研究挺有意思,AI技术现在已经无处不在了,但咱们的首席信息安全官,也就是CISO,居然还是在拿那些过时的老工具老技能去守它。这事儿靠谱吗?Pentera公司发了份《2026年AI与对抗性测试基准报告》,说大多数安全负责人现在正费力用不搭调的装备去防AI系统。这份报告是调查了300位美国的CISO和高级安全大佬得来的,他们重点研究了企业是怎么保护AI基础设施的,结果发现了一大堆跟缺人、用不对控制措施有关的大坑。 这就怪了,咱们平时看电影里AI都是单独一个大系统吧?其实并不是!现在的AI系统很少是单独部署的,它们是分层的,还得跟现有的企业技术混在一起用,什么云平台、身份系统、应用程序和数据管道全都要连在一块儿。因为这玩意儿归属权太分散了,管它的人东一榔头西一棒子的,根本没办法集中监督。所以呢,有67%的CISO说了实话:他们根本不知道自家公司里到底是怎么用AI的!没人敢说自己有百分百的visibility(看得清),大家都承认或者默认公司里存在一些没管好的、或者没经过授权的AI使用情况。 在这种连AI系统在哪跑、能访问啥资源都搞不清楚的情况下,安全团队怎么可能有效评估风险?那些基本问题,比如AI系统要靠啥身份来认证、能碰多少数据、或者万一控制失效它会有啥反应,往往都没有答案。虽然现在董事会和高管在会上老提AI安全了,但真要把这事儿搞定可不是靠砸钱就能行的。调查显示最大的拦路虎不是财务问题,而是CISO自己都找着北了。他们说了现在保护AI基础设施最大的障碍有三个:缺专业人才占50%、看不清使用情况占48%、专门为AI设计的工具不够用占36%。只有17%的人还觉得预算紧是主要问题。这说明啥?说明好多公司其实愿意投钱买安全,但现在还没攒够那在实战环境里评估风险的真本事。 AI系统弄出来的那些动作可真让安全团队头大了,啥自主决策啊、间接走后门啊、还有系统间的特权交互啊,都是大家伙儿还在学习怎么去评估的新东西。没有正确的专业知识和主动去测一下的话,根本没法确定那些老控制是不是真的还在按预期干活。现在既然没什么专门的AI安全标准和工具做参考,大多数公司也就只好把原来的那些老控制扩展一下用在AI身上。 你看那研究结果就很清楚了:有75%的CISO还是老样子,就靠端点安全、应用安全、云安全或者API安全这些传统工具去看住AI系统。真的专门为AI设计的工具吗?只有11%的人能拿出来。这跟以前别的技术革新时候的路子一模一样:刚开始大家都想凑合着用旧装备先撑着,等有了更合身的新玩法再说。虽说这能提供点基本的保障吧,但那些专为传统系统建的防线往往会忽略掉AI是怎么把访问路径变复杂、把攻击面扩大的。 总而言之呢,这份报告其实是在说:咱们现在的AI安全问题主要是底子太差、没招儿找对路才导致的,跟意识不到或者不想搞一点关系都没有。随着AI越来越变成企业的基础设施核心,它建议大家伙儿以后得专门把心思放在攒专业知识上,还有得想着法儿地去验证那些已经跑起来的AI系统到底安不安全。这个报告是由Pentera技术顾问总监Ryan Dory写的。下面咱们来做几个Q&A小测试: Q1:为啥大多数CISO都不知道自家公司里的AI是咋用的? A:因为AI不是个单独的庞然大物,它得跟云平台、身份系统这些旧技术混在一起用。而且管它的人太散了,没人能统一盯着看,这就直接导致67%的CISO说了实话:他们对AI在公司里的使用情况两眼一抹黑。 Q2:现在搞AI安全最大的拦路虎到底是什么? A:根据那300个被访者的说法,最大的困难就是:既缺懂行的专家(50%),又看不清楚用的情况(48%),专门为AI设计的工具也不够多(36%)。反倒是那个预算紧的问题?只有17%的人说是主要麻烦。 Q3:现在企业都是咋守AI这玩意儿的? A:研究发现还是老一套的东西在撑场面:有75%的人在拿端点安全、应用安全、云安全或者API安全这套老本行去对付AI。那种专门为AI设计的新工具呢?只有11%的人手里有货。这种做法虽然能挡住点基本的风险,但传统的那套控制往往没法应对AI弄出来的新花样和新问题。