听说了吗?亚马逊这次又有大动作了,居然联手Cerebras Systems推出AI推理芯片服务。你看3月14日财联社的消息,这两家巨头打算把各自的芯片整合成新服务,专门用来跑聊天机器人和编程工具这类AI应用。Cerebras这家估值231亿美元的芯片初创公司野心可不小,他们想要用一种跟英伟达完全不同的技术来挑战行业老大的地位。今年初,他们不是还跟OpenAI签了100亿美元的协议吗?就是要用Cerebras的芯片给那个火遍全球的聊天机器人提供算力。 这次合作的内容也很明确,Cerebras的芯片会被部署在亚马逊云服务(AWS)的数据中心里,跟亚马逊自己研发的Trainium3芯片连在一起,通过定制的网络技术互相通信。Cerebras的CEO Andrew Feldman说,“从个人开发者到全球最大的银行”,大家都在使用AWS,“点击一下”就能用上他们的算力。不过具体规模双方都没透露。其实他们这是在解决AI的一个关键环节——推理。简单来说就是模型训练完后,用户发请求要答案的过程。这次分工是这样的:Trainium3负责把自然语言变成计算机能懂的token语言,而Cerebras负责把这个token语言翻译成最终答案。 这事儿说明一个趋势:算力市场正在变天。以前大家都关注模型训练(主要是GPU在干活),现在推理更受重视了。你看那些做AI工具的公司发现了个问题:GPU训练确实快,但在响应速度要求高的推理任务上不太合适。现在用户多了起来(达到百万级),企业就得找别的芯片来代替GPU。这不正好赶上了吗?因为下周英伟达要公布的方案也差不多是这么回事。他们打算把自家GPU跟刚收购的Groq的芯片结合起来——记得吗?去年12月英伟达花了170亿美元把Groq收了。 亚马逊的声明里也说不清楚具体比英伟达方案好在哪里,但他们对性价比很有信心。“英伟达跟Groq的整合时间表还没定呢,”亚马逊说,“而我们的Trainium3离上线生产级工作负载也就差几个月。”他们还特意提到:“我们相信Trainium3和未来的Trainium4在性价比上会一直领先GPU。”Andrew Feldman也表示,“用AI的人越来越多、越来越频繁、解决的问题也越来越复杂,”所以能跟Trainium组合进全球最大的云平台是个好机会,“也让我们能接触到更多客户。”