最近,OpenAI和英伟达的合作动向让整个AI行业都竖起了耳朵。特别是它们在技术路线、供应链还有资本方面的互动,透露出头部科技公司现在对算力这块非常重视,不光要高效还要便宜,还得看能不能掌控在自己手里。路透社报说,OpenAI对英伟达最新芯片在处理模型推理的时候速度不太满意,尤其是在写代码这种复杂任务上更慢。这就促使他们从去年开始找别的硬件方案了。 其实这种情况挺自然的,以前训练模型的时候大家都得靠英伟达的GPU,因为它并行计算能力太强了。但现在的重点变了,转向大规模部署和推理了,这时候任务性质不一样了,需要频繁低延迟地调取数据。传统GPU那种依赖外部存储的架构可能就不太行了。反而那种能集成大容量静态随机存取存储器(SRAM)的芯片更有优势,在处理大量请求时延迟更低、能耗也更低。这就是OpenAI跑去跟Cerebras、Groq这些搞高SRAM芯片的初创公司接触的原因。 不过这条路走得挺难。消息说OpenAI跟某些初创企业谈合作的时候,被现在的供应链霸主给拦住了。比如听说英伟达签了个1000亿美元的大授权协议,把Groq的核心技术给攥在手里了,还把他们的团队挖过来了,这样一来OpenAI想找Groq合作的可能性就更小了。 面对这些传闻,OpenAI赶紧出来澄清说,他们绝大多数的推理算力还是用英伟达芯片支撑的,也承认性价比挺高。首席执行官萨姆·奥尔特曼在社交媒体上还夸英伟达的芯片是世界上最好的,希望能一直当大客户。英伟达那边也回应说产品一直被挑着用是因为性能好、成本低。 话说回来,这谈判其实还跟他们两家的资本合作有关。之前华尔街日报爆料说英伟达要给OpenAI投1000亿美元的计划卡住了。这个大新闻去年9月放出来之后谈了好几个月还没结果。分析人士觉得这可能是因为几方面原因:OpenAI自己产品路线一直在变;他们也没闲着,去跟AMD这种供应商探过路;还有钱这么多牵扯的条款和监管问题也得慢慢磨。 OpenAI和英伟达的事儿绝不仅仅是合作有点小波动这么简单,它反映了AI发展到了新阶段的核心问题:现在的算力从比谁快变成了怎么平衡效能和成本,还有得看供应链稳不稳。这些顶级应用企业开始从战略高度去琢磨怎么影响上游硬件怎么设计了。不管最终资本合作成不成,技术上的紧密依存肯定是跑不掉的。这过程不光是他们俩的事儿,会逼着整个AI算力生态变得更多元、更高效也更有竞争力。最终肯定会让全球的AI技术用得更普及、更深入。