[中美博弈] 一个被英伟达掩盖的、中美AI最残酷的物理真相

所以当OpenAI的Sam Altman在四处游说,声称需要7万亿美元来重构芯片产业链时,他其实更应该担心的是,即便有了芯片,他在美国哪里能找到足够的电把它们跑起来?


在美国弗吉尼亚州的“数据中心走廊”,电力公司Dominion Energy已经无数次发出警告,由于输电瓶颈,他们可能无法及时为新的数据中心供电。

而同样的故事,正在全美各地重演。变压器短缺、环保审批流程(NEPA)长达数年的拖延、老旧电网的各种物理限制,正在成为美国AI头顶的“天花板”。

但,中国已经“解决”了近期的AI电力供应问题。

如果你是一个在中国做AI基础设施的创业者,你可能还在为拿不到H100而头疼,但你绝不会像你的美国同行那样,因为申请不到市电扩容指标,而不得不去考虑自建核反应堆。

哪怕电费为零,中国AI的成本依然可能更高

读到这里,我们中国的读者可能会觉得:稳了。

既然电力是AI的血液,而中国拥有庞大的造血能力,那我们在AI竞赛中岂不是占据了绝对的地利?

且慢。这里有一个巨大的“但是”。

中国有电,但是,“电怎么转化成算力”(Efficiency)。

这就要回到半导体物理学的基本常识。

目前,美国顶级AI芯片(如Nvidia的B200/GB200)采用的是台积电最先进的4nm甚至3nm工艺。而受限于制程封锁,中国的主流国产AI芯片不得不停留在7nm或更成熟的工艺节点上。

制程落后不仅仅意味着单卡算力(FLOPs)的差距,更意味着能效比(Performance per Watt)的巨大鸿沟。

在微观层面,晶体管越小,驱动它所需的电压越低,漏电率控制越好。反之,为了在落后制程上堆出同样的算力,工程师必须堆叠更多的晶体管、拉高频率、忍受更高的发热。

Weijin Research做了一个场景模拟:

对比CloudMatrix集群(基于国产芯片)与Nvidia的GB200集群。即便在最理想的优化下,要在同样的算力输出(FLOPs)上对标英伟达,国产系统消耗的能源可能要高出100%甚至更多。

这是一个非常可怕的乘数效应。


让我们算一笔账:假设美国的工业用电平均成本是每千瓦时0.12美元,而中国依靠强大的煤电和新能源优势,将成本压到了0.08美元(便宜33%)。但是,如果国产芯片跑同样的模型需要消耗2.5倍的电力(能效比落后),那么最终每生成一个Token,或者每训练一个参数,中国的电力成a

这就是“效率黑洞”。

即使我们的电网里流淌着世界上最充沛、最廉价的电子,但由于终端转换设备(芯片)的能效瓶颈,这些电子在转化为智能的过程中,被大量的热损耗浪费掉了。

这就解释了为什么中国巨头在最新的技术白皮书中,疯狂强调“液冷”、“系统级能效”、“集群优化”。因为在单点物理能效无法突破制程天花板的情况下,必须通过系统工程(System Engineering)来补课。



液冷CDU,核心作用是安全、精准、高效地将冷却液输送到服务器芯片,并回收热量

但散热也是物理限制。

当一个机柜的功率密度从10kW飙升到100kW甚至更高时,传统的风冷彻底失效,数据中心必须进行伤筋动骨的液冷改造。这对于基础设施的运营能力提出了地狱级的挑战。

[物价飞涨的时候 这样省钱购物很爽]
还没人说话啊,我想来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     延伸阅读 更多...
    李成钢:中美就一些议题取得初步共识... 中国?外交部:中美就特朗普访华事宜保持着沟通
    中美代表巴黎新一轮经贸会谈 首日逾6小时后结束 中美巴黎经贸会谈开启:美方调查乌云罩顶
    华盛顿调查乌云罩顶 中美巴黎会谈开启 美财长将在巴黎会晤何立峰 第6轮中美经贸磋商敲定
    特习会前奏 中美主管经贸高官周日在巴黎会谈 中美俄安理会上吵架!中俄护伊失败  (1条评论)
    法国政客:不能让欧洲下一代只能给中美端茶倒水 法国外长:欧洲是中美博弈的未知数,会改变一切
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)

    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站