在全球人工智能产业快速发展的背景下,芯片内存技术路线选择成为制约算力提升的关键因素。
近日,英伟达公司首席执行官黄仁勋在CES 2026展会期间,就行业关注的"是否采用SRAM替代HBM"问题作出明确回应,为相关技术讨论提供了重要参考。
当前AI产业面临的核心矛盾在于:一方面,SRAM(静态随机存取存储器)因其极快的访问速度和无延迟特性,在特定场景下展现出显著优势;另一方面,HBM(高带宽存储器)虽然成本较高,但其大容量和3D堆叠架构更适合应对现代AI模型的庞大规模需求。
黄仁勋在分析中指出,SRAM虽然在某些特定工作负载中"快得惊人",但其物理特性决定了容量增长速度远远落后于AI模型的发展需求。
据统计,SRAM仅能承载现代AI模型需求的1%,而HBM系统则可满足90%以上的通用任务需求。
当模型规模超出SRAM容量时,系统被迫调用外部内存,其速度优势将不复存在。
这一技术选择的深层原因在于AI工作负载的复杂性和不可预测性。
现代AI模型已发展出混合专家模型、多模态任务、扩散模型等多种形态,对硬件资源的需求各不相同且动态变化。
过度优化单一内存架构可能导致硬件资源在多数场景下闲置,造成巨大浪费。
从产业发展影响来看,英伟达坚持HBM技术路线的决策具有多重考量。
首先,在共享数据中心环境中,硬件资源的灵活性和通用性直接关系到经济效益。
其次,随着开放模型整合更长上下文和更多模态,其对内存的需求将持续增长。
第三,保持技术路线的开放性有助于应对AI模型的快速迭代。
业内专家分析认为,这一技术路线选择体现了三个重要判断:其一,AI模型规模的持续扩张是不可逆的趋势;其二,硬件系统必须保持足够的灵活性以适应算法演进;其三,单纯追求局部性能优化可能牺牲整体系统效率。
展望未来,随着AI模型复杂度不断提升,内存技术的创新将成为支撑算力发展的关键。
行业需要在高性能、大容量和成本效益之间寻找平衡点,同时探索新型内存架构的可能性。
英伟达此次表态也为相关产业链的技术研发方向提供了重要参考。
AI产业的竞争正在从单一器件的比拼,走向系统能力与运营效率的较量。
更快的存储并不必然带来更高的生产效率,能否在多任务、多模型、快速变化的现实环境中保持稳定的吞吐与高利用率,才是基础设施投资的核心标尺。
围绕SRAM与HBM的讨论,提醒行业在追求成本下降的同时,更需把握“通用性、可扩展性与可持续回报”的长期逻辑。