美国加州那边,闪迪跟SK海力士联手搞了个动静,专门弄个叫高带宽闪存的新标准,把存储行业往新方向带。现在AI技术落地快,存数据这块儿遇到了瓶颈。两家公司放话要把这个HBF变成AI生态里的通用东西。这就好比给处理大数据开了条新路。技术白皮书写得很明白,HBF就夹在HBM和SSD中间,专门针对AI推理那种场景设计的。现在用AI服务的人越来越多,数据量大得吓人,老的存储架构带宽跟不上,用电效率还低。HBF通过改改传输路径,能在保持HBM那种快速度的同时,把存储空间扩大三倍还多。他们打算在OCP框架下搞这事,估计明年第二季度就能弄出第一批技术规范来。SK那边说HBF不光是填坑,是要把整个AI存储的价值链都给重构了。通过跟闪迪一起干,他们正在琢磨那种又快又多又便宜的模块。 业内人士都说这技术一旦商用,数据中心建起来的路子都得变。比如说要训练一个有10亿参数的大模型,用了HBF后,耗电量能降40%,买硬件花的钱也能少28%。这对那种对延迟特别敏感的自动驾驶、语音翻译之类的场景来说特别有用。市场研究公司估计到2030年,这种HBF的存储方案会占AI服务器市场65%以上的份额。目前两家公司已经把首代样品给做出来了,实测发现读数据能到7.2GB每秒,写数据的IOPS也能破180万次。这招不仅给存储原厂找了新的钱袋子,也给云服务的老板们优化设施提供了新路子。等标准定下来以后,预计2026年起就会有更多厂家加入这个生态链的建设。