英伟达推出革命性存储架构 助力人工智能算力效率突破性提升

问题——智能体应用进入“长上下文”阶段,存储成为新瓶颈。

随着智能体应用在检索、规划、调用工具、反复迭代等多步骤流程中不断扩展上下文,数据中心原有“大容量、通用型”存储体系在时延与并发响应方面的短板被放大:数据在计算与存储之间频繁搬运,访问路径变长,导致推理过程等待时间增加,算力资源利用率下降。

业内人士指出,在推理成本持续攀升的背景下,存储与网络的“拖尾效应”正在成为影响系统整体效率的关键因素。

原因——传统存储架构难以匹配推理负载的实时性与规模化访问需求。

长期以来,数据中心存储更多面向批处理、离线分析等场景,强调容量、稳定与通用性。

但智能体推理强调低时延、强并发、持续交互和快速上下文装载,对“靠近计算、可扩展访问、与算力协同”的系统设计提出更高要求。

当上下文不断增长时,通用存储的访问链路、协议栈开销和跨节点调度成本都会直接转化为推理时延,并进一步造成计算资源的空转。

影响——基础设施路线正在从“堆算力”转向“算存网协同”。

英伟达在大会上发布BlueField-4 STX模块化存储参考架构,核心指向“让存储更贴近计算并实现规模化访问”。

据介绍,其机架级部署方案集成了NVIDIA CMX上下文内存存储平台,通过高性能上下文层扩展计算侧内存能力,面向长上下文推理的吞吐提升明显:与传统通用存储设备相比,每秒处理Token数量最高可提升5倍。

与此同时,该架构在能效方面也强调以系统优化抵消成本压力:其能效表现据称较传统CPU架构提升4倍,企业级数据摄取速度(以每秒页面处理量计)实现翻倍。

分析认为,这类指标若在规模化生产环境中兑现,将有助于降低推理单位成本,提升算力投资的实际产出。

对策——以“近算存储+专用处理+高速网络与软件栈”重构路径。

英伟达表示,STX基于Vera Rubin平台打造,核心采用面向存储优化的BlueField-4处理器,并结合高速网络与软件体系协同运行,意在把数据路径做短、把并发调度做强、把上下文装载做快,从而提升智能体推理、训练与分析全流程的吞吐与响应。

公司创始人兼首席执行官黄仁勋在会上强调,随着智能体应用加速演进,计算基础设施需要新的存储形态,以处理海量上下文并支撑持续学习能力。

业界观察人士认为,这一表态延续了近年来数据中心向“平台化、模块化、参考架构化”推进的趋势,即以标准化方案缩短集成周期、降低部署复杂度,推动从技术展示走向可复制的工程化落地。

前景——存储厂商与云服务商同步推进,产业链或迎新一轮升级窗口。

英伟达披露,戴尔、HPE、IBM等存储供应商正基于STX联合设计下一代基础设施;在应用端,甲骨文云等云服务商以及相关企业计划率先采用,合作伙伴预计将于今年下半年向市场交付基于STX平台的系统。

业内人士指出,若该架构在云端形成规模化供给,将有望带动数据中心存储、网络与加速处理器的协同升级,并推动智能体应用在企业知识管理、客户服务、软件开发与科研计算等场景更快落地。

同时也需看到,新架构的推广仍取决于生态兼容、成本曲线、运维体系与安全合规等因素,能否形成跨厂商的标准化能力,将决定其渗透速度与覆盖范围。

BlueField-4 STX架构的推出标志着AI基础设施建设进入新阶段。

从解决存储与计算的距离问题,到实现5倍推理速度提升,这一创新反映了产业界对AI发展瓶颈的深刻理解和系统性解决方案的探索。

随着全球主流云服务商和基础设施供应商的陆续采用,新型存储架构有望成为支撑智能体AI大规模应用的重要基石,进而推动整个AI产业向更高效、更可靠的方向发展。