从“数据仓库”到“词元工厂”:算力竞争进入以能效与产出定胜负的新阶段

人工智能技术的快速发展正在深刻改变全球算力产业的运行逻辑。

业界普遍认为,AI产业已从早期的大模型集中训练阶段演进至规模化应用与商业变现阶段,这一转变带来了对数据中心功能和评估体系的根本性重新认识。

在最近召开的英伟达年度GPU技术大会上,业界领军人士提出了"token工厂"的新概念,将传统数据中心的角色进行了革新性定义。

所谓token,即词元,是人工智能模型处理信息的基本单位,可以是语言中的词汇、代码片段,甚至是图像和视频中的像素区块。

当用户向AI系统提问并获得分析报告或生成高清影像时,背后实质上是数据中心在进行高频次、大规模的词元生成过程。

从功能定位看,传统数据中心主要承担数据的静态存储和网络交换职能,被业界称为"电子仓库"。

而随着AI智能体开始自主调用工具、执行复杂逻辑任务,现代数据中心正在转变为持续吞吐海量数据并输出智能内容的生产设施。

这种转变的本质是将数据中心重新定义为智能产线:输入端是电力、数据、模型和调度系统,输出端是AI智能体的执行能力和各行业场景中的实际生产率。

在新的竞争框架下,衡量数据中心竞争力的核心指标也发生了变化。

业界共识认为,每瓦特电力的token吞吐量将替代传统的服务器数量、存储容量等指标,成为决定企业存活和营收的关键参数。

这意味着在既定的电力和空间资源约束下,数据中心产出token的速度、质量和成本,将直接决定科技企业的市场竞争力。

token因此被比作数字经济时代的"硬通货",成为可计价的数字商品,AI服务也随之按吞吐量、速率、智能密度等维度实现分层定价。

这一观点已获得业界广泛认可。

知名风险投资机构在行业观察报告中指出,GPU计算正日益商品化,充裕且低成本的算力已成为支撑数字经济运转的基础设施。

斯坦福大学发布的2025年人工智能指数报告显示,得益于小型模型能力的显著提升,执行通用语言模型级别系统的推理成本在近两年间骤降超过280倍,这充分证明了算力成本下降的趋势。

不过,提高token产出效率面临多方面的技术挑战。

随着模型规模扩大、上下文长度增加,虽然AI系统的智能程度会提升,但token的生成速率会相应降低。

因此,架构优化成为关键课题。

英伟达等企业正在加紧推出新一代算力平台,力争在单位瓦特下实现显著的性能提升。

相关新产品的每瓦特性能预计可达上一代系统的10倍,配套的机架系统与新平台协同工作,可将每瓦特词元生成效率提升约35倍,这些进展为行业发展注入了新的动力。

与此同时,能源瓶颈成为制约算力产业发展的重要因素。

除了电力供应的压力,AI产业还面临物理空间、冷却水资源等多重约束。

在此背景下,能源问题的紧迫性促使全球算力布局加速与绿色转型实现深度融合。

全球大型科技企业正在密集向核电、地热等清洁能源领域延伸投资。

美国亚马逊公司与能源企业宣布达成长期协议,将从核电站获得超过1900兆瓦的电力供应用于云计算数据中心,双方还在考虑合作建造小型模块化反应堆。

这些举措反映出全球科技产业在应对能源约束时的战略调整,清洁能源正在成为支撑算力产业可持续发展的重要基础。

从存储时代到生产时代,数据中心的角色转变折射出数字经济发展的深层逻辑演变。

在这场以能效为核心的产业变革中,技术创新与可持续发展理念的融合,不仅将决定企业的生存空间,更将影响国家在全球数字经济格局中的战略地位。

面对这场静悄悄的能源革命,如何平衡算力需求与生态约束,将成为考验各方智慧的时代命题。