咱们就聊点科技圈的最新事儿,超7万亿的Token被消耗了,这就意味着咱们中国连续三周把美国甩在后面。这个记录到底代表着啥意思呢?记者罗云鹏扒了扒全球最大的人工智能API聚合平台OpenRouter,发现3月16日到3月22日,全球AI大模型总共叫了20.4万亿Token,环比增长了20.7%。这可是真金白银的数据啊,哪怕是记者也挺意外。 你看那前十个榜单里的中国AI大模型,这一周的调用量直接飙到了7.359万亿Token,比前一周涨了56.9%;反观美国那边只有3.536万亿Token,环比才涨了7.35%。这就连续三周超越美国了。为啥咱们中国的调用量这么猛?大家都想搞清楚这个问题。 咱们先说说Token到底是个啥。深圳理工大学的马智恒老师讲得通俗点:这就是AI眼里的“字块”。你说话写文章的时候,文本会被切成一堆Token再转成向量去处理。中文一般是1到2个字算一个Token。每问一句或者回一句都会耗掉几个。 要是把算力当成电,那Token就是消耗的电量。深圳计算科学研究院的欧伟杰拿这个比喻特别贴切:“算力”就是“电力”,“Token”就是“电量”,这指标可是衡量AI活跃不活跃的核心东西。 综合开发研究院的马朝良也觉得Token背后有个大趋势:人类正把世界拆解成机器能看懂的最小单位。 那为啥中国的调用量大呢?榜单上前四名全是国产模型:小米MiMo V2 Pro、阶跃星辰Step 3.5 Flash、MiniMax M2.5还有DeepSeek-V3.2。马智恒分析说价格是个大因素,DeepSeek和MiniMax这些国产模型把API用的成本大幅降下来了,开发者和企业才会去用。 咱们的公司在开源这块占了先机,跟国外顶尖闭源模型的技术差距也就三个月了,而且价格便宜太多了,吸引力自然大。 粤港湾控股的罗介平也说了句话很实在:“微信、钉钉这些应用能让十亿级的用户一点就调起AI能力。”你想想看,这种海量需求还不是因为咱们开发者贡献多嘛。很多企业在做应用时对成本特别敏感,国产模型用便宜的训练成本把AI变成了像柴米油盐一样的生活必需品。 欧伟杰补充道:随着国内模型在推理速度和API成本上的优化,好多中小企业和开发者都开始把AI接入业务流程了。 这数据到底说明啥?阿里巴巴就在上周成立了Alibaba Token Hub事业群,要搞Token的生产输送和应用;英伟达的黄仁勋也在GTC 2026上提出了“Token经济学”。马智恒觉得这就是个“体温计”,我国能领跑说明重心从发模型转到了怎么大规模用了。 罗介平直言这意味着咱们产业进入了一个正循环:技术迭代带成本下降,接着就是应用爆发。 不过欧伟杰也提醒大家要清醒点:海量的Token背后得靠数据库系统精准管理实时数据、历史知识和用户交互。马智恒也承认美国在原始模型创新和高端芯片这块还是有优势的。 最后编辑宋慈审核了这篇稿子。