即时新闻

Token有了“官方翻译”——词元

来源:新快报     2026年03月25日        版次:A02    作者:

  我国日均词元调用量已超过140万亿

  新快报讯 AI时代,“Token”这个词经常出现在大众视野里,在23日举行的中国发展高层论坛2026年年会上,国家数据局局长刘烈宏给“Token”出了一个清晰的定位:Token“词元”不仅是智能时代的价值锚点,更是连接技术供给与商业需求的“结算单位”,为商业模式的落地提供了可量化的可能。这也从官方角度上为“Token”给出了翻译:词元。

  在AI的世界里,词元是模型处理信息的最小计量单位,无论是用户的提问,还是AI生成的一段代码,最终都要被拆解成词元来完成运算。正因如此,词元调用量成为衡量AI模型活跃度和产业价值的关键指标,词元调用量越高,意味模型被用得越多,创造的实际价值也就越大。

  以最近爆火的“龙虾”为例,“龙虾”执行任务需频繁调用大模型,对词元的消耗量是普通模型的数倍甚至上百倍。

  刘烈宏24日在国新办举行的新闻发布会上表示,到今年3月,我国日均词元(Token)调用量已超过140万亿,相比2024年初的1000亿增长了1000多倍,相比2025年底的100万亿,三个月时间又增长了40%多。最近相关数据平台显示,中国AI大模型周调用量连续三周超越美国。

  “日均词元调用量的大量增加,充分表明中国的人工智能发展进入了快速增长阶段。”刘烈宏表示,人工智能应用场景在不断深化,从能对话到能决策执行的智能体,中国人工智能产业的竞争力在显著增强,现在备受关注的Token出海,就是产业竞争力增强的一个标志。

  据刘烈宏介绍,在各方共同努力下,我国高质量数据集的建设工作取得了阶段性成效,截止到2025年底,全国已建成的高质量数据集超过10万个,总体量超过890PB,这相当于中国国家图书馆数字资源总量的310倍左右。

  下一步,国家数据局将持续推进数据赋能人工智能创新发展,协同各方深入实施新一轮的高质量数据集建设行动计划,以场景需求为牵引,加快推进先行先试的工作,打造技术可行、实用便捷、质量保障的AI-Ready(AI就绪度)高质量数据集,实现高质量数据集供给的量质提升。

  (新华社、央视)