NVIDIA最近推出了OpenShell这个开源项目,它专门给那些自主AI智能体做安全防护。自主智能体现在已经不只是回个话或者算个账那么简单了,它们能直接动手干活:读文件、用工具、写代码、甚至在企业系统里跑流程,还会越变越强。但这种能力变强的同时,风险也跟着指数级上升。NVIDIA弄了个OpenShell运行时来解决这个问题。它是NVIDIA智能体工具包里的一部分,主要是给自主系统提供一个安全的运行环境。 这个东西最牛的地方就是它把应用层操作和基础设施层的策略执行分开了,所有智能体都被关进了一个沙盒里。这样一来,安全策略就不会跑到智能体那边去——它们是在系统级别直接定死的。OpenShell不靠教AI怎么行为规范,而是直接给环境加锁头——这就好比把门锁上了,哪怕有人想乱来也打不开。企业可以把行为、策略定义和执行这三样东西分开管,这样大家就能在一个统一的策略层里看清楚智能体到底在干什么。 不管是写代码的、做研究的还是跑工作流的,都得在这套规则下走。无论你用的是啥操作系统,只要有这套规则在,合规性和监管都好办多了。这就像你在浏览器里开标签页一样:每个会话都是独立的、资源被控制住了、权限还得先经过运行时确认才行。 保护这些自主系统光靠一个人不行,得有个大生态系统一起发力。NVIDIA正在跟思科、CrowdStrike、谷歌云、微软安全还有TrendAI这些伙伴合作,一起管好整个企业里的智能体运行规则。 NVIDIA还搞了个NemoClaw,这是个开源参考例子,专门帮你把OpenShell运行时和Nemotron模型装上OpenClaw助手(就是个常驻的AI助手)。它把安装流程简化成了一个命令就能搞定。NemoClaw就是给爱好者用的,让他们能自己弄个会自己进化的个人AI助手。 因为大家的安全需求不一样,NemoClaw里给了些策略示例的参考栏(这就像手机上的隐私设置),让你能自己挑着用。它里面配好了OpenShell的配置文件(定义了AI该怎么跟系统打交道),用的还是开源模型。这样一来,不管是在云里、本地还是自家的电脑上(比如GeForce RTX PC、笔记本电脑或者RTX PRO工作站),甚至是DGX Station和DGX Spark这种超算上跑的AI程序都更安全了。 现在这俩玩意儿都还在早期预览阶段呢。NVIDIA正在跟社区和伙伴一起磨磨这个东西,让企业能用得放心、大胆地扩展那些会自己学、长时间跑的AI助手。 现在想试试的话,可以去NVIDIA OpenShell官网上看看怎么上手;或者直接在NVIDIA Brev上开个现成的环境用;再或者去GitHub上翻翻那些开源代码。 Q&A Q1:NVIDIA OpenShell是个啥?它干了啥? A:这是个开源运行时环境,专门用来养AI助手的。它把每个助手都关在独立的沙盒里,把干活的动作和系统规则分开来管,这样就算AI想乱来也动不了规则设定。 Q2:OpenShell是咋保证安全的? A:它用了那个“浏览器标签”的概念:每回访问都是隔离的、资源都是掐着的、权限还得先验明正身才能干活。它不靠教AI怎么好而是靠封锁环境——这样就算被攻击了也打不破防线。 Q3:NVIDIA NemoClaw跟OpenShell有啥关系? A:这是个拿来就能用的例子(参考堆栈),能帮你把OpenShell运行时和Nemotron模型装到OpenClaw助手上去(安装流程简化成一个命令)。它里面有现成的配置文件和策略示例(像手机设置隐私一样),让你能自己挑着改。