AMD的X3D处理器其实和英伟达这次搞的Feynman架构有很多相似之处,都是想用3D堆叠技术把计算单元和内存混在一块,只不过AMD主攻游戏,英伟达是为了搞AI。黄仁勋把这次的芯片叫“世界从未见过”,这话一点都不假。Feynman把台积电的A16工艺给用上了,1.6nm的晶体管密度简直吓人,再加上那个Groq的LPU单元,这东西设计得真是激进。 以前的GPU显存带宽不够,跑大语言模型的时候经常跟数据搬运工似的慢吞吞。Feynman直接来了个硬核解法:通过3D堆叠把SRAM跟LPU绑在一块。这种做法能彻底打破延迟和带宽的瓶颈。台积电这次提升晶体管密度可不是闹着玩的,1.6nm能比现在5nm工艺塞进更多的计算单元,特别适合那种要处理海量参数的推理任务。 不过这芯片真的挺折腾的。Feynman采用了chiplet设计,也就是把很多小芯片连在一块。这种设计一旦出了岔子,哪怕是个小瑕疵,都可能让整颗芯片废掉。所以英伟达才抢着把台积电的早期产能给锁死了。毕竟现在1.6nm的每片晶圆都被当成战略资源。 从Hopper到Blackwell再到现在的Feynman,英伟达这架构换得比摩尔定律还快。不过这次不一样的是,以前大家都盯着训练使劲儿,现在重心全在推理上了。OpenAI大手一挥买了一大堆这种芯片,这就说明市场现在更想要那种能快速响应查询的推理引擎,而不是单纯的浮点运算怪兽。 良率问题真是个大坎儿。台积电的A16生产线还没完全跑顺溜呢,这就意味着一开始出来的Feynman芯片可能不够用。有分析师担心货不够会导致价格涨上去,这就背离了降低成本的初衷了。 Groq的LPU技术一旦被整合进英伟达的生态体系里,这就不仅仅是个硬件变革了,更是整个AI基础设施的一次价值重构。就像当年CUDA生态起来以后大家都跟着跑一样,英伟达这次好像是要为推理时代建立新的行业标准。OpenAI站台这一出算是给这个标准盖上了权威印章。 制程这把双刃剑真是让英伟达又爱又怕。如果这次1.6nm的豪赌能成,那英伟达肯定能甩开后面那帮追兵好远;要是良率问题一直发酵下去,这所谓的推理革命估计就只是纸上谈兵了。下个月GTC大会一开,我们就看黄仁勋从他那皮衣口袋里掏出的到底是个能颠覆行业的核弹头,还是还得继续打磨的半成品吧。