全球ai算力格局的最终结局,现在还远没到写总结的时候呢?

在这波全球AI算力版图的大洗牌里,咱们终于能看到除了GPU之外的更多选择了。Meta跟谷歌签了那么一大笔钱的TPU租赁协议,OpenAI又把目光投向了英伟达的Groq推理芯片,摩根大通那边更是提前爆料说,到了2027年谷歌要弄出600到700万颗TPU,大多都流向Anthropic、Meta还有OpenAI跟苹果这些大厂。短短几个月时间,大家都不约而同地换了阵营,以前那种“GPU说了算”的局面算是彻底散架了。 就在这个节骨眼上,OpenAI还放出了大招,他们推出了GPT-5.3-Codex-Spark这个新模型,居然在里面用了Cerebras那种晶圆级芯片来做推理。Cerebras这家公司有个特别的点,就是用“一张晶圆就是一个处理器”的办法来挑战传统GPU的架构,结果不仅延迟更低、能耗也更小,让咱们写代码的时候能真正做到“想啥来啥”。这种做法被业内人士看作是对GPU性能瓶颈的一次正面硬刚。 现在大家都开始盯着能效比和延迟这两个关键指标了。半年前还在盯着英伟达的财报看,现在头号玩家们偷偷把订单分给了TPU、Cerebras、Groq这些非GPU阵营。IDC预测说,到2028年中国那边的非GPU服务器市场规模会占一半左右;高盛的模型也显示全球市场里非GPU芯片出货量的占比,会从2024年的36%一路涨到2027年的45%。这些数字背后意味着比拼的焦点已经从单纯算多少算力变成了能耗和速度。 这就把GPU的老毛病给暴露出来了。大家都知道GPU有个“显存墙”的问题,每次运算都得在外部存贮器和计算单元之间跑来跑去搬运数据,这一趟来回折腾导致能耗高、延迟也高。路透社那边也爆料说,OpenAI对英伟达的芯片就有点不满,觉得它们响应太慢了,特别是在写代码的产品Codex上体验特别差。 在这种压力下,英伟达花大价钱买下了Groq。这位Groq的创始人以前可是TPU之父,他现在的目标就是要造出一把“高阶TPU之剑”。大家都不太愿意把未来十年的基础设施压在那种又费电又慢、系统还封闭的技术上。不过现在还是有点悬念:到底TPU能不能真的顶住压力跟GPU干一仗?Groq手里那张“高阶TPU之剑”又藏着什么底牌?答案可能就在下一轮迭代里了——全球AI算力格局的最终结局,现在还远没到写总结的时候呢。