一天烧掉120万亿Token,字节震惊全球

刚刚,火山引擎公布了一个数字:


豆包大模型日均Token使用量已突破120万亿。

放眼全球,120万亿/日都是一个是非常极端的Token量。

在Token即生产力的今天,这个数字到底意味着什么?

120万亿Token是什么量级?

先来对比几组公开数据:

豆包(字节):120万亿Token/日(2026年3月);

OpenAI:API平台每分钟60亿Token,折算约8.64万亿/日(仅API,不含ChatGPT订阅全量);

Google:Gemini处理Token达1300万亿/月,折算下来约43万亿/日(2025年10月);

微软:2025财年Q3单季度超100万亿Token,单月最高50万亿,粗算约合1.7万亿/日。

尽管各家口径不同,但量级清晰可见:

全球能把Token日均吞吐做到百万亿级别的,屈指可数。

换算成更直观的工程指标:120万亿Token/日,相当于每秒并发处理13.9亿Token。

这已经不是实验室的压力测试,而是真实生产环境的持续负载。

这意味着字节正在经历超大规模AI平台的运营验证。

过去外界谈大模型,更多比较的是参数、榜单、体验。

但是当Token消耗量达到120万亿/日这种量级时,大家关注的重心就变成了平台的基础设施能力,如何把这么多Token持续、稳定、低成本地跑出来?

这里面考验的是推理吞吐、时延控制、任务调度、成本优化、故障隔离、高峰期的稳定性等各种能力。

某种程度上,字节已经把AI推到了“Token工厂”的量级。

谁能持续承接海量Token,谁就更有机会在下一轮AI竞争里掌握供给能力、结算能力和平台地位。

谁在燃烧120万亿Token?

还有一组数据,也很有冲击力。

豆包大模型日均Token使用量,最近三个月翻了1倍,两年时间里更是暴增1000倍。

这种爆炸式的增长动力从何而来?

火山引擎总裁谭待表示,近期豆包大模型使用量高速增长,核心驱动因素是AI视频创作的爆发与AI智能体的加速普及。

其中,视频生成是最容易理解的一类重负载。

Seedance 2.0在2月发布后迅速走红,字节也把它作为近期重点能力推向市场。

公开资料显示,Seedance 2.0生成15秒视频大约需要30.888万Token,而生成10秒 1080p视频需消耗约为35万Token。


这和普通文本问答完全不是一个量级:后者一次可能只消耗几百到几千Token,而前者一次任务就是几十万Token。

目前,一部AI漫剧作品的Token消耗可达上亿。

只要视频生成需求开始大规模起量,它就足以迅速推高整个平台的Token总量。

智能体带来的变化更隐蔽,但同样重要。

普通聊天是一轮输入、一轮输出,但智能体要经过任务拆解、工具调用、上下文读取、结果校验、失败重试等多个步骤。

一个Agent任务背后,往往对应的是一串模型调用,而不是一次问答。

所以,智能体普及带来的不是用户数简单增加,而是单次任务Token消耗强度的大幅上升。

尽管字节未披露豆包大模型的Token结构拆分,但可以推测的是,其Token结构正在变化。

过去,豆包大模型既有豆包 App、抖音、剪映、今日头条等字节内部产品场景,也包括企业、开发者等外部商业API调用。

但现在,新增量越来越多地来自更重的场景,高消耗、高工作流的企业级场景,正在快速上升。

未来Token的走向

这也符合行业内正在形成的一个共识:企业级、重任务的场景将更快地推动Token的增长。

OpenAI在2025年底发布的企业报告提到,已有9000多家组织累计处理超过100亿 Token,其中接近200家超过1万亿Token;

[加西网正招聘多名全职sales 待遇优]
还没人说话啊,我想来说几句
上一页12下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     延伸阅读
    Token=词元 Prompt=文令…这些AI术语的中文名定了 直击GTC,老黄就指着你烧token了
    Token太贵了,还是用人吧,人耐造,还便宜 10万token GPT4最强对手1分秒杀
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站