就在不久前,英伟达创始人黄仁勋亲自上门给OpenAI科学家诺姆·布朗送上了一台初代的DGX-1。转眼到了2015年,当年黄仁勋直接把这个机器给了OpenAI,那时候的深度学习还只是个实验室里的新东西。 快进到2024年,黄仁勋又把手头最先进的DGXH200送给了马特·伯曼。马特在YouTube上教人怎么搭建AI智能体系统,大家都知道他是个懂行的人。 现在,这个被称作“桌面级数据中心”的DGXStation(GB300)也被送到了卡帕西手里。它有748GB的统一内存和20PFLOPS的算力,能让千亿参数的模型在本地就能跑起来,还能无缝搬到云端。 卡帕西在社交平台上说,他打算用这台机器搞个个人AI实验集群。这是个很巧妙的举动,既展现了他对未来技术的预见,也把英伟达对技术趋势的精准把控给摆了出来。 回顾过去十年,这三台机器的更替其实反映了算力格局的变化。以前的模型参数还小,大家搞集中式训练就行;现在参数越来越大,分布式应用就成了刚需。 英伟达这次还推出了开源堆栈NVIDIANemoClaw,它能让你用一个命令就能部署一个“在线AI助手”。这样的设计不光解决了技术门槛高的问题,也形成了一套从硬件到软件的完整解决方案。 为什么像卡帕西这样的关键人物会出现在独立开发者群体里?答案可能在于智能体时代的技术扩散路径变了。以前是大公司主导创新,现在个人开发者成了主力。 这种变化让算力供给模式也经历了根本性的转变。以前的算力像电网一样集中供应;现在的目标是让算力变得像电力一样普惠。英伟达的策略就是通过硬件迭代定义标准,再用开源生态来降低使用门槛。 卡帕西有个理念是“让AI持续运行”,他的工作就是把前沿论文变成能干活的模型。这正好和DGXStation的定位不谋而合——它既是个人开发者的“迷你数据中心”,又是本地实验跟云端部署之间的桥梁。 未来的技术竞争可能更多是围绕着“如何让复杂系统在边缘端稳定工作”展开。对于咱们普通人来说,AI智能体普及后肯定会改变我们的生活和工作方式。你觉得这会带来哪些影响?