联发科:内存已经变成xpu的大问题之一了,差不多花掉了50% 的成本

联发科觉得内存已经变成XPU的大问题之一了,差不多花掉了50%的成本。去年年底,谷歌搞了个新动作,把面向AI应用的新硬件拿了出来,主要是用Axion Arm处理器还有Ironwood TPU来给它撑腰。他们现在也在做第八代TPU的项目,准备分成两种版本:一个是TPUv8x,专门给AI推理用,叫Zebrafish;另一个是TPUv8ax,用来训练像Gemini这种大模型,叫Sunfish。这次在做TPUv8x的时候,联发科也帮了忙,把芯片设计和封装这一块给包圆了。 据TrendForce说,联发科既然已经加入了谷歌的这个第八代TPU计划,那它肯定就在AI这块的生态系统里变得更有话语权了。最近蔡力行在活动里跟大家唠嗑,说XPU开发这事儿有四大拦路虎:计算、内存、互联和封装。特别是内存这块变得越来越关键,现在已经是50%的占比了。蔡力行也提到,虽说现在AI训练还得靠HBM这种贵东西撑着,但是以后大家肯定更偏向于搞定制化设计,所以推理这块会成为新的增长点。在这种趋势下,DDR DRAM因为密度大又省钱,肯定会用得更广泛。至于SRAM嘛,可能就是在一些对带宽要求特别高的地方用用。 有消息说SK海力士现在就在搞这个针对AI数据中心的“AIN”系列产品,主要是盯着三个方向:性能(P)、带宽(B)、密度(D)。像他们的“AI-N B”就是那种高带宽闪存HBF;“AI-N D”呢就是大容量的便宜货;剩下的“AI-N P”是跟英伟达合作搞的SLCNAND闪存,主要是为了应付大模型推理时的海量数据输入输出。 回想一下2021年的时候三星就已经推出了世界上第一块自带AI处理能力的HBM——HBM-PIM,能提供1.2 TFLOPS的嵌入式算力,让内存芯片自己就能干CPU、GPU、ASIC或者FPGA的活。之前还有风声说三星现在又把目光放回到PIM技术上了,心里想着以后要让它取代传统的HBM。