2026年第三季度,meta的新ai 芯片就会正式量产,架构用的是risc-v,里面塞了1000颗

话说到了2026年第三季度,Meta的新AI芯片就会正式量产,架构用的是RISC-V,里面塞了超过1000颗核心,运算能力能飙到200 TFLOPS。虽说最近传Meta要放弃自己造AI训练芯片,但彭博社有新消息爆料,Meta正在拼命扩充自家的AI基础设施,打算自己搞一款定制芯片,用来训练以后的大模型。 3月5日的消息传出来后,Meta首席财务官Susan Li在摩根士丹利开的技术会议上说,公司最近刚和顶级芯片厂商达成了几笔大买卖,不过自研芯片的野心是越来越大了,特别想搞出那种能训大模型的处理器。Susan Li直言不讳:“咱们有些工作负载确实跟自家的芯片挺配的……像排序和推荐这种活儿一直是咱们重点盯着的,也是必须大规模上定制芯片的地方。但咱估计过不了多久,范围肯定会扩大,最后把训练AI模型这块也给包圆了。” 以前Meta的第一代AI芯片MTIA v1折腾了三年才搞出来,2023年初发的。那是个基于RISC-V的架构,台积电7nm工艺造的。内部是个8乘8的处理单元矩阵,每个单元里都塞了两个RISC-V CPU核心,一个还有向量数学扩展。这些核心还集成了128MB的片上SRAM,外加128GB的LPDDR5内存。 到了2024年,Meta又拿出了第二代MTIA v2,工艺升级到了5nm,核心数量多了不少,片内内存翻倍到256MB,外存也涨到了128GB,主频从800MHz拉到了1.35GHz,功耗也跟着涨到了90W。但第三块芯片到现在都没动静。 最近有在Meta搞芯片研发的人透露,公司已经砍掉了一个内部代号叫“Iris”的版本。后来他们又开始搞代号“Olympus”的新款训练芯片,但看样子也很悬。那老兄说,因为有延期或者要重做的风险,内部人对做那种能打得过英伟达产品的计划都持怀疑态度。他还吐槽说搞这玩意儿得要一大帮工程师来设计调试,还得保证功耗不能太高,不然跟英伟达比起来就没活路了。 Iris这个训练芯片用的是SIMD计算法。这种办法硬件工程师好弄点,但软件工程师编程起来就费劲。 Olympus采用的方法更接近英伟达的路子——SIMT。这种方法对软件工程师编程更友好点,但硬件工程师搞设计就比较麻烦。好多科技公司都爱这种做法,因为灵活又适合训现代模型。 Meta本来打算最早在2026年四季度搞定Olympus设计。不过报道补了一句,通常新芯片从研发到量产还得拖上九个月甚至更久。 Olympus的核心部件是GPU,内核设计用的是去年刚收购的Rivos公司的技术。Rivos以前说过自家GPU能跑得动英伟达的CUDA软件代码,CUDA现在可是训AI的标配。 Meta本来想拿Olympus组个大服务器集群,不过高管觉得这会增加训练新模型的风险——毕竟公司现在还在跟OpenAI还有Google死磕呢。所以有传闻说Meta可能会放弃自研计划转投谷歌的TPU。 但从Susan Li的话听来,自研项目还是没死透。Meta搞定制芯片就是想少受第三方供应商摆布——特别是英伟达那些贵得吓人的GPU。据报道说,公司每年在这些GPU上的开销能达到50到70亿美元,自家搞的ASIC有望把成本砍个40%到60%。 Susan Li说他们正在买各种不同类型的芯片去干活儿:“按咱们现在的需求看,觉得哪种好用就用哪种,定制芯片肯定也是其中很重要的一块。” 据最新传闻说,Meta现在还在搞一款叫“MTIA 3”的原型机设计,也是RISC-V架构和Rivos的内核。这玩意儿的技术规格很强硬:有超过1000颗核心和超过200 TFLOPS的算力——这一下子就能把Meta在AI训练领域的竞争力给拉上去了。 目前他们是找博通(Broadcom)帮忙设计,找台积电(TSMC)去造。早期测试已经跟美国和欧洲那边那2.4万颗GPU集群整合成一块儿了。照这样看这款芯片估计会在2026年第三季开始量产。Meta的目标是到2026年底搞出超过100 exaFLOPS的算力来——这基本上就是天顶星科技的级别了。