国家数据局:“token”就是ai 模型处理信息最小的一块砖

你平常跟AI聊天,其实一直在“花钱”,花的是一种叫“Token”的单位。这个词现在特别火,是很多大模型比谁调用得多的硬指标,也是厂商收钱的计费方式。国家数据局的局长刘烈宏在2026年的一次大会上说,“Token”就像智能时代的锚点,能把技术供应和商业需求连起来算钱,让做生意有了可量化的依据。他还正式给这个词定了个中文名叫“词元”。他提到了一个具体数字:我国现在每天用到的“Token”(也就是词元)数量已经超过了140万亿。 刘烈宏讲得挺细,说到去年年底全国已经攒了超过10万个高质量的数据集。到了今年3月,每天用掉的Token数量比2024年初那时候的1000亿涨了1000多倍,比去年年底的100万亿又多了40%。他觉得这个增长说明中国的AI发展速度很快,应用场景越来越深了,不光能说话聊天,还能做决策甚至执行任务。 这事儿为啥这么重要?因为“Token”就是AI模型处理信息最小的一块砖。不管你是给AI提问题还是让它写代码,最后都得把这些内容拆成一个个的Token去算。所以谁的Token调用量大,就说明谁用得多,创造的价值也就越大。 最后他还说了下一步计划:国家数据局要以用户的实际需求为导向,赶紧试一下先把场景跑通了。重点是要搞出一些既好用又靠谱的高质量数据集,把供应量和质量都提上去。