一天烧掉120万亿Token,字节震惊全球
刚刚,火山引擎公布了一个数字:
豆包大模型日均Token使用量已突破120万亿。
放眼全球,120万亿/日都是一个是非常极端的Token量。
在Token即生产力的今天,这个数字到底意味着什么?
120万亿Token是什么量级?
先来对比几组公开数据:
豆包(字节):120万亿Token/日(2026年3月);
OpenAI:API平台每分钟60亿Token,折算约8.64万亿/日(仅API,不含ChatGPT订阅全量);
Google:Gemini处理Token达1300万亿/月,折算下来约43万亿/日(2025年10月);
微软:2025财年Q3单季度超100万亿Token,单月最高50万亿,粗算约合1.7万亿/日。
尽管各家口径不同,但量级清晰可见:
全球能把Token日均吞吐做到百万亿级别的,屈指可数。
换算成更直观的工程指标:120万亿Token/日,相当于每秒并发处理13.9亿Token。
这已经不是实验室的压力测试,而是真实生产环境的持续负载。
这意味着字节正在经历超大规模AI平台的运营验证。
过去外界谈大模型,更多比较的是参数、榜单、体验。
但是当Token消耗量达到120万亿/日这种量级时,大家关注的重心就变成了平台的基础设施能力,如何把这么多Token持续、稳定、低成本地跑出来?
这里面考验的是推理吞吐、时延控制、任务调度、成本优化、故障隔离、高峰期的稳定性等各种能力。
某种程度上,字节已经把AI推到了“Token工厂”的量级。
谁能持续承接海量Token,谁就更有机会在下一轮AI竞争里掌握供给能力、结算能力和平台地位。
谁在燃烧120万亿Token?
还有一组数据,也很有冲击力。
豆包大模型日均Token使用量,最近三个月翻了1倍,两年时间里更是暴增1000倍。
这种爆炸式的增长动力从何而来?
火山引擎总裁谭待表示,近期豆包大模型使用量高速增长,核心驱动因素是AI视频创作的爆发与AI智能体的加速普及。
其中,视频生成是最容易理解的一类重负载。
Seedance 2.0在2月发布后迅速走红,字节也把它作为近期重点能力推向市场。
公开资料显示,Seedance 2.0生成15秒视频大约需要30.888万Token,而生成10秒 1080p视频需消耗约为35万Token。
这和普通文本问答完全不是一个量级:后者一次可能只消耗几百到几千Token,而前者一次任务就是几十万Token。
目前,一部AI漫剧作品的Token消耗可达上亿。
只要视频生成需求开始大规模起量,它就足以迅速推高整个平台的Token总量。
智能体带来的变化更隐蔽,但同样重要。
普通聊天是一轮输入、一轮输出,但智能体要经过任务拆解、工具调用、上下文读取、结果校验、失败重试等多个步骤。
一个Agent任务背后,往往对应的是一串模型调用,而不是一次问答。
所以,智能体普及带来的不是用户数简单增加,而是单次任务Token消耗强度的大幅上升。
尽管字节未披露豆包大模型的Token结构拆分,但可以推测的是,其Token结构正在变化。
过去,豆包大模型既有豆包 App、抖音、剪映、今日头条等字节内部产品场景,也包括企业、开发者等外部商业API调用。
但现在,新增量越来越多地来自更重的场景,高消耗、高工作流的企业级场景,正在快速上升。
未来Token的走向
这也符合行业内正在形成的一个共识:企业级、重任务的场景将更快地推动Token的增长。
OpenAI在2025年底发布的企业报告提到,已有9000多家组织累计处理超过100亿 Token,其中接近200家超过1万亿Token;
[加西网正招聘多名全职sales 待遇优]
还没人说话啊,我想来说几句
豆包大模型日均Token使用量已突破120万亿。
放眼全球,120万亿/日都是一个是非常极端的Token量。
在Token即生产力的今天,这个数字到底意味着什么?
120万亿Token是什么量级?
先来对比几组公开数据:
豆包(字节):120万亿Token/日(2026年3月);
OpenAI:API平台每分钟60亿Token,折算约8.64万亿/日(仅API,不含ChatGPT订阅全量);
Google:Gemini处理Token达1300万亿/月,折算下来约43万亿/日(2025年10月);
微软:2025财年Q3单季度超100万亿Token,单月最高50万亿,粗算约合1.7万亿/日。
尽管各家口径不同,但量级清晰可见:
全球能把Token日均吞吐做到百万亿级别的,屈指可数。
换算成更直观的工程指标:120万亿Token/日,相当于每秒并发处理13.9亿Token。
这已经不是实验室的压力测试,而是真实生产环境的持续负载。
这意味着字节正在经历超大规模AI平台的运营验证。
过去外界谈大模型,更多比较的是参数、榜单、体验。
但是当Token消耗量达到120万亿/日这种量级时,大家关注的重心就变成了平台的基础设施能力,如何把这么多Token持续、稳定、低成本地跑出来?
这里面考验的是推理吞吐、时延控制、任务调度、成本优化、故障隔离、高峰期的稳定性等各种能力。
某种程度上,字节已经把AI推到了“Token工厂”的量级。
谁能持续承接海量Token,谁就更有机会在下一轮AI竞争里掌握供给能力、结算能力和平台地位。
谁在燃烧120万亿Token?
还有一组数据,也很有冲击力。
豆包大模型日均Token使用量,最近三个月翻了1倍,两年时间里更是暴增1000倍。
这种爆炸式的增长动力从何而来?
火山引擎总裁谭待表示,近期豆包大模型使用量高速增长,核心驱动因素是AI视频创作的爆发与AI智能体的加速普及。
其中,视频生成是最容易理解的一类重负载。
Seedance 2.0在2月发布后迅速走红,字节也把它作为近期重点能力推向市场。
公开资料显示,Seedance 2.0生成15秒视频大约需要30.888万Token,而生成10秒 1080p视频需消耗约为35万Token。
这和普通文本问答完全不是一个量级:后者一次可能只消耗几百到几千Token,而前者一次任务就是几十万Token。
目前,一部AI漫剧作品的Token消耗可达上亿。
只要视频生成需求开始大规模起量,它就足以迅速推高整个平台的Token总量。
智能体带来的变化更隐蔽,但同样重要。
普通聊天是一轮输入、一轮输出,但智能体要经过任务拆解、工具调用、上下文读取、结果校验、失败重试等多个步骤。
一个Agent任务背后,往往对应的是一串模型调用,而不是一次问答。
所以,智能体普及带来的不是用户数简单增加,而是单次任务Token消耗强度的大幅上升。
尽管字节未披露豆包大模型的Token结构拆分,但可以推测的是,其Token结构正在变化。
过去,豆包大模型既有豆包 App、抖音、剪映、今日头条等字节内部产品场景,也包括企业、开发者等外部商业API调用。
但现在,新增量越来越多地来自更重的场景,高消耗、高工作流的企业级场景,正在快速上升。
未来Token的走向
这也符合行业内正在形成的一个共识:企业级、重任务的场景将更快地推动Token的增长。
OpenAI在2025年底发布的企业报告提到,已有9000多家组织累计处理超过100亿 Token,其中接近200家超过1万亿Token;
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 |
Token=词元 Prompt=文令…这些AI术语的中文名定了 |
直击GTC,老黄就指着你烧token了 |
Token太贵了,还是用人吧,人耐造,还便宜 |
10万token GPT4最强对手1分秒杀 |
推荐:
一天烧掉120万亿Token,字节震惊全球