[中美博弈] 一个被英伟达掩盖的、中美AI最残酷的物理真相
所以当OpenAI的Sam Altman在四处游说,声称需要7万亿美元来重构芯片产业链时,他其实更应该担心的是,即便有了芯片,他在美国哪里能找到足够的电把它们跑起来?
在美国弗吉尼亚州的“数据中心走廊”,电力公司Dominion Energy已经无数次发出警告,由于输电瓶颈,他们可能无法及时为新的数据中心供电。
而同样的故事,正在全美各地重演。变压器短缺、环保审批流程(NEPA)长达数年的拖延、老旧电网的各种物理限制,正在成为美国AI头顶的“天花板”。
但,中国已经“解决”了近期的AI电力供应问题。
如果你是一个在中国做AI基础设施的创业者,你可能还在为拿不到H100而头疼,但你绝不会像你的美国同行那样,因为申请不到市电扩容指标,而不得不去考虑自建核反应堆。
哪怕电费为零,中国AI的成本依然可能更高
读到这里,我们中国的读者可能会觉得:稳了。
既然电力是AI的血液,而中国拥有庞大的造血能力,那我们在AI竞赛中岂不是占据了绝对的地利?
且慢。这里有一个巨大的“但是”。
中国有电,但是,“电怎么转化成算力”(Efficiency)。
这就要回到半导体物理学的基本常识。
目前,美国顶级AI芯片(如Nvidia的B200/GB200)采用的是台积电最先进的4nm甚至3nm工艺。而受限于制程封锁,中国的主流国产AI芯片不得不停留在7nm或更成熟的工艺节点上。
制程落后不仅仅意味着单卡算力(FLOPs)的差距,更意味着能效比(Performance per Watt)的巨大鸿沟。
在微观层面,晶体管越小,驱动它所需的电压越低,漏电率控制越好。反之,为了在落后制程上堆出同样的算力,工程师必须堆叠更多的晶体管、拉高频率、忍受更高的发热。
Weijin Research做了一个场景模拟:
对比CloudMatrix集群(基于国产芯片)与Nvidia的GB200集群。即便在最理想的优化下,要在同样的算力输出(FLOPs)上对标英伟达,国产系统消耗的能源可能要高出100%甚至更多。
这是一个非常可怕的乘数效应。
让我们算一笔账:假设美国的工业用电平均成本是每千瓦时0.12美元,而中国依靠强大的煤电和新能源优势,将成本压到了0.08美元(便宜33%)。但是,如果国产芯片跑同样的模型需要消耗2.5倍的电力(能效比落后),那么最终每生成一个Token,或者每训练一个参数,中国的电力成a
这就是“效率黑洞”。
即使我们的电网里流淌着世界上最充沛、最廉价的电子,但由于终端转换设备(芯片)的能效瓶颈,这些电子在转化为智能的过程中,被大量的热损耗浪费掉了。
这就解释了为什么中国巨头在最新的技术白皮书中,疯狂强调“液冷”、“系统级能效”、“集群优化”。因为在单点物理能效无法突破制程天花板的情况下,必须通过系统工程(System Engineering)来补课。

液冷CDU,核心作用是安全、精准、高效地将冷却液输送到服务器芯片,并回收热量
但散热也是物理限制。
当一个机柜的功率密度从10kW飙升到100kW甚至更高时,传统的风冷彻底失效,数据中心必须进行伤筋动骨的液冷改造。这对于基础设施的运营能力提出了地狱级的挑战。
[物价飞涨的时候 这样省钱购物很爽]
还没人说话啊,我想来说几句
在美国弗吉尼亚州的“数据中心走廊”,电力公司Dominion Energy已经无数次发出警告,由于输电瓶颈,他们可能无法及时为新的数据中心供电。
而同样的故事,正在全美各地重演。变压器短缺、环保审批流程(NEPA)长达数年的拖延、老旧电网的各种物理限制,正在成为美国AI头顶的“天花板”。
但,中国已经“解决”了近期的AI电力供应问题。
如果你是一个在中国做AI基础设施的创业者,你可能还在为拿不到H100而头疼,但你绝不会像你的美国同行那样,因为申请不到市电扩容指标,而不得不去考虑自建核反应堆。
哪怕电费为零,中国AI的成本依然可能更高
读到这里,我们中国的读者可能会觉得:稳了。
既然电力是AI的血液,而中国拥有庞大的造血能力,那我们在AI竞赛中岂不是占据了绝对的地利?
且慢。这里有一个巨大的“但是”。
中国有电,但是,“电怎么转化成算力”(Efficiency)。
这就要回到半导体物理学的基本常识。
目前,美国顶级AI芯片(如Nvidia的B200/GB200)采用的是台积电最先进的4nm甚至3nm工艺。而受限于制程封锁,中国的主流国产AI芯片不得不停留在7nm或更成熟的工艺节点上。
制程落后不仅仅意味着单卡算力(FLOPs)的差距,更意味着能效比(Performance per Watt)的巨大鸿沟。
在微观层面,晶体管越小,驱动它所需的电压越低,漏电率控制越好。反之,为了在落后制程上堆出同样的算力,工程师必须堆叠更多的晶体管、拉高频率、忍受更高的发热。
Weijin Research做了一个场景模拟:
对比CloudMatrix集群(基于国产芯片)与Nvidia的GB200集群。即便在最理想的优化下,要在同样的算力输出(FLOPs)上对标英伟达,国产系统消耗的能源可能要高出100%甚至更多。
这是一个非常可怕的乘数效应。
让我们算一笔账:假设美国的工业用电平均成本是每千瓦时0.12美元,而中国依靠强大的煤电和新能源优势,将成本压到了0.08美元(便宜33%)。但是,如果国产芯片跑同样的模型需要消耗2.5倍的电力(能效比落后),那么最终每生成一个Token,或者每训练一个参数,中国的电力成a
这就是“效率黑洞”。
即使我们的电网里流淌着世界上最充沛、最廉价的电子,但由于终端转换设备(芯片)的能效瓶颈,这些电子在转化为智能的过程中,被大量的热损耗浪费掉了。
这就解释了为什么中国巨头在最新的技术白皮书中,疯狂强调“液冷”、“系统级能效”、“集群优化”。因为在单点物理能效无法突破制程天花板的情况下,必须通过系统工程(System Engineering)来补课。

液冷CDU,核心作用是安全、精准、高效地将冷却液输送到服务器芯片,并回收热量
但散热也是物理限制。
当一个机柜的功率密度从10kW飙升到100kW甚至更高时,传统的风冷彻底失效,数据中心必须进行伤筋动骨的液冷改造。这对于基础设施的运营能力提出了地狱级的挑战。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐:



