思科(CSCO.US)刚发了一套新的安全服务,矛头直指OpenClaw那种超智能体带来的风险。智通财经APP里也有消息说,思科这次要给世界拉个安全网,免得被AI或者别的什么力量欺负。思科打算把事儿做得细一点,先是给AI建个可信的身份标签,再上一套零信任的访问控制机制,让智能体在部署前就得经过强化训练,运行的时候还得有实时防护。特别是为那些在SOC团队里干活的人准备了工具,能让他们像机器一样快地把威胁拦截下来。举个例子,最近特别火的OpenClaw就是个大家伙,技术圈里特受追捧。这玩意儿是Peter Steinberger弄出来的,后来他去了OpenAI那边工作。它让用户能自己设定一个AI代理,这些代理能在电脑上干活,啥事都干得挺溜,比如查邮件、回消息、管文件。这些功能看着挺酷吧,但也藏着雷。毕竟用户把权限都给了AI模型,这在平时自动化挺好用的,但也可能惹出大麻烦。要是不小心把重要邮件或者系统程序给永久删了怎么办?要是在公司的设备上用OpenClaw测试,那问题就更大了。为了管住这玩意儿不少组织都在推新产品,就怕它的副作用比好处大。 上周英伟达(NVDA.US)在GTC大会上也推出了自己的NemoClaw平台,思科这边也没闲着,周一就把进军这块的成果亮出来了。思科总裁兼首席产品官Jeetu Patel解释说,OpenClaw就好比ChatGPT对客服人员的作用一样,它就是个催化剂,让懂行的用户更容易在家里和工作场合部署客服人员。不过Patel也补充了句不太好的地方:“不好的一面……也就是挑战所在……就是信任和安全风险的问题。因为这些代理……它们有点像青少年。”他们特别自信,经验又少,也不知道啥后果严重,更不清楚规矩在哪。 为了消弭这些担心思科打算走多路并行的路子:既得保护世界不受坏的AI代理攻击又得保护AI不受外界干扰还得用AI去抓恶意黑客的漏洞。虽然说“保卫世界免受AI威胁”这话听着夸张但Patel觉得挺对的AI和别的软件没啥两样都能用来搞破坏或者偷数据。Patel还说:“这些客服的风险可比聊天机器人大多了。”聊天机器人最坏也就是说错话而已“而客服人员最差劲的就是会干错事这些错动作可能带来灾难性后果比如清空你的银行账户或者删除你的邮件根本没办法挽回。” 思科跟别的公司想得差不多:最好的办法就是像对人一样对待AI代理先给它们弄个能验明正身的身份然后好好管起来最后再给它们适当的访问权限让它们能干该干的活。 除此之外思科还得防着别人别把黑客的脏水泼到AI身上别让黑客钻空子迫使AI去干它们本来不会干的事。 思科说为了达成这个目标公司要推出一项服务让客户能在模拟攻击下测试自家的AI代理看看哪儿强哪儿弱。 最后思科说他们打算依靠代理来对抗其他AI威胁确保客户能跟攻击者跑得一样快及时处理各种突发情况。 OpenClaw只是AI大爆发的一个新成果可能很快还会推动更多的变革毕竟这才去年11月刚出来就开始影响各大公司的商业决策了当然这就需要更多种类型的网络安全技术来帮忙了防御者还得抓紧追上攻击者才行。