英伟达把自己从单纯卖芯片的变成了ai算力的全方位服务提供商,这下子创业公司的路到底

英伟达把自己从单纯卖芯片的变成了AI算力的全方位服务提供商,这下子创业公司的路到底该怎么走?最近刚开完的GTC大会上,英伟达发了个大信号,说是要把重心从卖硬件转向建AI基础设施系统。有行业的人看出来了,这是在搞一个从芯片到系统再到规矩都管的大生态,野心可不小。技术搞手王智分析说,英伟达这条路走得跟软件发展挺像。以前大家写程序得自己懂机器语言,后来高级语言出来了,大家把复杂东西都封装好了。现在英伟达也在AI算力这块复制这招,把底层那些难弄的组件变成了标准模块,客户就能像拼乐高一样随便搭系统了。这不仅门槛低了,连产业竞争都变样了。 记得二十年前那个CUDA平台吗?那可是英伟达的救命稻草。它把底层硬件细节藏起来,让程序员只管琢磨算法就行。这么多年攒下来,CUDA现在坐拥上亿的装机量、十几万的开源项目还有一大帮工程师,已经变成了个很难跨过去的高墙。但专家说了,这还只是开头,更大的变化还在后头。这次GTC大会上,创始人黄仁勋提了个新说法:Token就是现在的新油。他们推出了五层的Token定价体系,从免费到最高速都有了。这种精细的价格策略背后,其实是算力市场正在变细——以前是粗放式卖电,现在得精确地匹配不同的需求。做医疗诊断要准,做金融交易要快,做工业质检得稳,大家对算力的要求差得远着呢。 需求侧那边的变化才是真核儿。现在AI代理(Agent)之间的交互变主流了,Token消耗的方式也从直线上升变成了爆炸式增长。数据显示今年春节国内大模型流量猛增,这是因为很多外国公司为了省钱开始用中国的模型了。这说明新规矩出来了:机器干活产生的算力需求比人聊天要大多了。 在硬件布局上英伟达也是全面出击。老GPU在训练这块还行,但在推理这块就吃力了。推理任务看重的是低延迟和灵活调度,这对CPU要求更高。为了弥补这点,英伟达专门推出了给算力中心用的CPU,还找了个叫Groq的芯片公司合作。Groq搞的LPU芯片用了片上集成SRAM技术,做存储密集型的推理特别快,比传统DRAM方案快多了。首席科学家Bill Dally预测说,以后推理硬件至少会分成三类:训练预填充型、解码型还有更细的小类。这种分化给后来者留了口子。 分析师觉得英伟达虽然把地盘铺得挺大,但不可能全包圆了,尤其是在边缘计算和中等定制化场景上还有机会。可重构计算技术被看成是破局的关键。这种技术能动态调整芯片功能,在通吃和专用之间找个平衡点。拿工厂质检摄像头来说,不同生产线的指标不一样,可重构芯片能快速适应这些需求。国内有家做半导体的负责人说咱们这一块跟国际先进水平差距不大,在定制化方面成本低、部署还快。 推理市场这就火起来了也意味着机会和挑战并存。有个投资人就说了,国内头部的算力芯片公司现在得做个选择:要么顺着老路一直往训练芯片方向走等着上市;要么就赶紧转去推理这块更有前景的市场。这一步选对了就能打破之前的老路子;选错了可能就只能看着领先者越来越远了。