推理规模化催生"内存墙"挑战 铠侠等厂商加速构建AI时代存储新体系

全球存储产业正处在关键转折点。在3月27日开幕的CFMS|MemoryS 2026峰会上,多家厂商表示,随着人工智能应用进入规模化落地阶段,传统存储架构已难以支撑大模型推理的需求。KV Cache技术的普及,正在把行业关注点从“算力是否足够”推向“内存是否够用”。 技术层面,Transformer架构在生成过程中需要不断调用历史上下文,使KV Cache的内存占用随生成长度线性增长。实测显示,70B参数模型在多用户并发场景下,显存占用可达数十GB,系统瓶颈由“算力受限”转为“带宽受限”。该变化也暴露出当前存储体系的三项短板:容量不足、带宽受限,以及缺乏完善的生命周期管理。 市场层面,KV Cache正在重塑存储产业的价值链。DRAM和HBM需求出现结构性上升,业内预计单卡HBM容量将从80GB向120GB以上演进。更值得关注的是,存储资源从一次性配置逐步变为持续消耗,行业周期性波动有望被更平滑。三星、SK海力士等头部企业已将HBM定位为战略产品,美光科技则在加速推进CXL内存池化技术研发。 面对这一变化,产业界形成四条主要技术路线:通过精度压缩降低存储需求,构建分层存储体系,开发异构计算架构,以及推进CXL内存扩展。其中,CXL因具备内存资源动态调度能力,被认为是突破“GPU本地内存瓶颈”的关键方向。存储厂商也正从传统配套角色,走向影响系统能力定义的核心参与者。 行业专家认为,这轮变化将对全球半导体格局产生深远影响。随着存储性能成为限制AI发展的关键因素,对应的企业的议价能力和产业链话语权或将上升。预计未来三年,高带宽内存市场规模将保持30%以上的年增长率,而新型存储架构标准的主导权争夺也将更加激烈。

从训练走向推理——从单次计算走向持续服务——存储正在成为系统效率与商业模式的关键环节。KV Cache带来的不只是局部优化,更是在重新定义数据中心的存储层级、资源调度方式与产业分工。面向未来,存储竞争不再仅体现在单一器件指标上,而将更多取决于系统架构能力、软硬协同水平以及规模化落地能力。