[微软] 微软为了AI,买了17亿美金的屎?(图
论文里面算出来,一个非常简单的GPT-4o的请求(就是你随便问一句话,然后让它回答一小段),就要消耗掉0.43瓦时(Wh)的电量。
你可能没啥感觉,我帮你换算一下。
平时我们搜个谷歌,查个问题,每次大概是0.3瓦时左右,GPT-4o随便问一下就超过这个40%。
而当你稍微多聊几句,每天大概8次GPT-4o对话下来,总的用电就能达到将近4瓦时,这差不多就是给两部iPhone手机充满电的电量。
你说这也不多啊?问题是,这个数字后面跟着的是庞大的用户群体。
论文里做了个推算,假设全球每天大概有7亿次GPT-4o查询(以OpenAI公布的数据为基础),这么一天跑下来,能耗直接就爆表了。
全年下来,这光是GPT-4o一款模型的电量消耗就达到了惊人的46万兆瓦时(MWh),相当于美国3.5万个普通家庭一整年的用电量。
至于碳排放,这就更夸张了,一年的GPT-4o的碳排放量预计在13.8万到16.3万吨二氧化碳之间,跟3万多辆汽油车开一整年的排放差不多。
如果想要抵消这个排放的话,相当于120万人年饮用水需求的淡水蒸发量,以及需要一个芝加哥大小的森林才能抵消掉。。。
而且这个还只是普通的4o,而像o3、DeepSeek-R1这种推理模型,一次直接爆炸。。。

R1一次平均29瓦时,o3一次平均19瓦时左右。。。
你再回头看看微软花17亿美元买屎封存碳排放这事,是不是突然觉得没那么荒唐了?
其实这背后最大的讽刺在于,AI技术本身明明在效率上比人力高多了,但效率提高的同时,需求也跟着爆炸增长,这就叫经济学里的“杰文斯悖论”。
简单说就是:东西便宜了,人们就会更多、更频繁地用它,最后导致总消耗量反而大幅增加。
比如你以前没啥事儿可能不会找人聊天,但现在AI聊天又便宜又方便,闲着没事儿就聊几句,这不知不觉的,全球的总能耗就一路暴涨。
这种现象在AI领域尤其明显,单个请求的能源消耗小到几乎看不见,但无数请求累积在一起,那能量和资源的需求,就变得极其惊人。
所以你看,资本世界的魔幻就在于,它的每一幕荒诞都透着难以辩驳的合理性。
微软买屎封碳这种听起来离谱的操作,实际上只不过是一个缩影。
当我们拼命往前跑的时候,总要有些什么东西被我们甩到身后。
未来。
我们可能某一天,也会发现。
原来我们一直站在“屎堆”上。
眺望星辰大海。
[加西网正招聘多名全职sales 待遇优]
这条新闻还没有人评论喔,等着您的高见呢
你可能没啥感觉,我帮你换算一下。
平时我们搜个谷歌,查个问题,每次大概是0.3瓦时左右,GPT-4o随便问一下就超过这个40%。
而当你稍微多聊几句,每天大概8次GPT-4o对话下来,总的用电就能达到将近4瓦时,这差不多就是给两部iPhone手机充满电的电量。
你说这也不多啊?问题是,这个数字后面跟着的是庞大的用户群体。
论文里做了个推算,假设全球每天大概有7亿次GPT-4o查询(以OpenAI公布的数据为基础),这么一天跑下来,能耗直接就爆表了。
全年下来,这光是GPT-4o一款模型的电量消耗就达到了惊人的46万兆瓦时(MWh),相当于美国3.5万个普通家庭一整年的用电量。
至于碳排放,这就更夸张了,一年的GPT-4o的碳排放量预计在13.8万到16.3万吨二氧化碳之间,跟3万多辆汽油车开一整年的排放差不多。
如果想要抵消这个排放的话,相当于120万人年饮用水需求的淡水蒸发量,以及需要一个芝加哥大小的森林才能抵消掉。。。
而且这个还只是普通的4o,而像o3、DeepSeek-R1这种推理模型,一次直接爆炸。。。

R1一次平均29瓦时,o3一次平均19瓦时左右。。。
你再回头看看微软花17亿美元买屎封存碳排放这事,是不是突然觉得没那么荒唐了?
其实这背后最大的讽刺在于,AI技术本身明明在效率上比人力高多了,但效率提高的同时,需求也跟着爆炸增长,这就叫经济学里的“杰文斯悖论”。
简单说就是:东西便宜了,人们就会更多、更频繁地用它,最后导致总消耗量反而大幅增加。
比如你以前没啥事儿可能不会找人聊天,但现在AI聊天又便宜又方便,闲着没事儿就聊几句,这不知不觉的,全球的总能耗就一路暴涨。
这种现象在AI领域尤其明显,单个请求的能源消耗小到几乎看不见,但无数请求累积在一起,那能量和资源的需求,就变得极其惊人。
所以你看,资本世界的魔幻就在于,它的每一幕荒诞都透着难以辩驳的合理性。
微软买屎封碳这种听起来离谱的操作,实际上只不过是一个缩影。
当我们拼命往前跑的时候,总要有些什么东西被我们甩到身后。
未来。
我们可能某一天,也会发现。
原来我们一直站在“屎堆”上。
眺望星辰大海。
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐:



