未来已来!黄仁勋详解驱动AI革命的"三大规模法则"
投资这样的企业呢?我唯一后悔的是前几年没有投入更多资金。我们芯片的性能才是关键,即便Vera Rubin(英伟达计划于2026年推出的芯片)研发失败,他们也可以选择其他品牌的芯片,没有义务必须使用我们的产品。我们对xAI、CoreWeave等公司的投资也证明了我们的投资眼光。我们投资OpenAI背后真正的经济实质在于,ChatGPT拥有15亿月活跃用户,以及企业对人工智能技术的迫切需求。每个企业和国家都将人工智能视为生存的关键,其重要性堪比核能。
06.年度发布节奏和极致协同设计
格斯特纳:2024年,英伟达的芯片发布周期调整为年度发布,从Hopper系列到Blackwell系列实现了重大升级。英伟达明年将推出Vera Rubin系列,2027年推出Ultra系列,2028年推出Fineman系列。目前年度发布周期推进得如何?设定这一周期的目标是什么?人工智能是否帮助英伟达实现了这一发布节奏?
黄仁勋:是的,如果没有人工智能,英伟达的发展速度和规模都会受到限制。人工智能对我们的产品设计至关重要。设定年度发布周期的目标,是为了应对Tokens生成量和用户使用需求的双重指数级增长。
OpenAI每周有8亿活跃用户,每位用户生成的Tokens数量也在大幅增加,因为现在的推理过程需要“思考”。由于摩尔定律失效,晶体管的成本和功耗基本保持不变,我们必须通过新技术来降低Tokens生成成本。
从Kepler系列到Hopper系列,性能提升了10万倍;从Hopper系列到Blackwell系列,性能提升了30倍;Vera Rubin和Fineman系列还将继续提升性能。
我们通过极致协同设计(Extreme Co-design)实现这一目标,对模型、算法、系统和芯片进行全面优化,涉及CPU、GPU、网络芯片、NVLink(英伟达高速互联技术)和Spectrum X以太网(英伟达以太网技术)。我们的以太网业务是全球增长最快的以太网业务之一。这种全栈式优化带来的性能提升,远远超过了摩尔定律的极限。
格斯特纳:什么是极致协同设计?
黄仁勋:极致协同设计指的是同时对模型、算法、系统和芯片进行优化,突破传统CPU速度提升的限制。英伟达通过CUDA(统一计算架构)和GPU开创了这种大规模协同设计模式,覆盖软件、数据中心、交换机、网络等多个领域。我们每年研发6至7款芯片,并对整个系统进行优化。我们的软件丰富度在行业内仅次于少数几家公司,这使我们能够应对人工智能领域多样化的需求。
格斯特纳:有竞争对手称,英伟达推行的年度发布周期不仅降低了Tokens生成成本,还通过锁定供应链让竞争对手难以追赶。你对此有何看法?
黄仁勋:我们每年要建设价值数百亿美元的人工智能基础设施,供应链规模非常庞大。晶圆、动态随机存取存储器(DRAM)等关键部件需要提前一年规划。客户会下达50亿美元规模的订单,这源于他们对我们架构稳定性的信任。没有客户会愿意为未经验证的新架构冒险,我们的供应链优势和客户信任度是重要的竞争优势。
07.专用集成电路(ASIC)的未来与经济性
格斯特纳:关于GPU与专用集成电路,如谷歌TPU(张量处理器)、亚马逊Trainium的争论一直很激烈。你在去年曾表示,英伟达打造的是系统而非单一芯片,许多ASIC项目可能无法实现量产。如今谷歌的TPU似乎取得了成功,你如何看待当前的竞争格局?
黄仁勋:谷歌TPU的成功源于其前瞻性。该公司在人工智能热潮兴起之前就启动了TPU1项目,这就像初创公司需要在市场规模较小时进入一样。英伟达也是如此,抓住了早期的小众市场,并将其发展成了庞大的产业。现在人工智能市场规模巨大且复杂,从GPU到人工智能工厂,涉及多种芯片(例如用于视频生成的CPX芯片)。
我们还在探索人工智能数据处理芯片,因为人工智能需要对长期和短期内存进行管理。CUDA的灵活性使我们能够快速试验不同的架构,而ASIC的固定性难以应对人工智能需求的快速变化。
即便ASIC取得成功,客户仍需平衡其计算集群的配置,而英伟达的生态系统能提供多样化的选择。我们推出的Dynamo(分布式人工智能工作负载编排工具)和NV Fusion(与英特尔等公司合作的技术),允许竞争对手接入我们的人工智能工厂,这对双方来说是双赢的选择。
格斯特纳:你曾表示,即便竞争对手的芯片免费提供,客户仍会选择英伟达的系统,因为运营成本(如电力、场地等)更低。能否详细解释一下这一点?
[加西网正招聘多名全职sales 待遇优]
这条新闻还没有人评论喔,等着您的高见呢
OpenAI可能成为下一个万亿美元级公司,谁不想06.年度发布节奏和极致协同设计
格斯特纳:2024年,英伟达的芯片发布周期调整为年度发布,从Hopper系列到Blackwell系列实现了重大升级。英伟达明年将推出Vera Rubin系列,2027年推出Ultra系列,2028年推出Fineman系列。目前年度发布周期推进得如何?设定这一周期的目标是什么?人工智能是否帮助英伟达实现了这一发布节奏?
黄仁勋:是的,如果没有人工智能,英伟达的发展速度和规模都会受到限制。人工智能对我们的产品设计至关重要。设定年度发布周期的目标,是为了应对Tokens生成量和用户使用需求的双重指数级增长。
OpenAI每周有8亿活跃用户,每位用户生成的Tokens数量也在大幅增加,因为现在的推理过程需要“思考”。由于摩尔定律失效,晶体管的成本和功耗基本保持不变,我们必须通过新技术来降低Tokens生成成本。
从Kepler系列到Hopper系列,性能提升了10万倍;从Hopper系列到Blackwell系列,性能提升了30倍;Vera Rubin和Fineman系列还将继续提升性能。
我们通过极致协同设计(Extreme Co-design)实现这一目标,对模型、算法、系统和芯片进行全面优化,涉及CPU、GPU、网络芯片、NVLink(英伟达高速互联技术)和Spectrum X以太网(英伟达以太网技术)。我们的以太网业务是全球增长最快的以太网业务之一。这种全栈式优化带来的性能提升,远远超过了摩尔定律的极限。
格斯特纳:什么是极致协同设计?
黄仁勋:极致协同设计指的是同时对模型、算法、系统和芯片进行优化,突破传统CPU速度提升的限制。英伟达通过CUDA(统一计算架构)和GPU开创了这种大规模协同设计模式,覆盖软件、数据中心、交换机、网络等多个领域。我们每年研发6至7款芯片,并对整个系统进行优化。我们的软件丰富度在行业内仅次于少数几家公司,这使我们能够应对人工智能领域多样化的需求。
格斯特纳:有竞争对手称,英伟达推行的年度发布周期不仅降低了Tokens生成成本,还通过锁定供应链让竞争对手难以追赶。你对此有何看法?
黄仁勋:我们每年要建设价值数百亿美元的人工智能基础设施,供应链规模非常庞大。晶圆、动态随机存取存储器(DRAM)等关键部件需要提前一年规划。客户会下达50亿美元规模的订单,这源于他们对我们架构稳定性的信任。没有客户会愿意为未经验证的新架构冒险,我们的供应链优势和客户信任度是重要的竞争优势。
07.专用集成电路(ASIC)的未来与经济性
格斯特纳:关于GPU与专用集成电路,如谷歌TPU(张量处理器)、亚马逊Trainium的争论一直很激烈。你在去年曾表示,英伟达打造的是系统而非单一芯片,许多ASIC项目可能无法实现量产。如今谷歌的TPU似乎取得了成功,你如何看待当前的竞争格局?
黄仁勋:谷歌TPU的成功源于其前瞻性。该公司在人工智能热潮兴起之前就启动了TPU1项目,这就像初创公司需要在市场规模较小时进入一样。英伟达也是如此,抓住了早期的小众市场,并将其发展成了庞大的产业。现在人工智能市场规模巨大且复杂,从GPU到人工智能工厂,涉及多种芯片(例如用于视频生成的CPX芯片)。
我们还在探索人工智能数据处理芯片,因为人工智能需要对长期和短期内存进行管理。CUDA的灵活性使我们能够快速试验不同的架构,而ASIC的固定性难以应对人工智能需求的快速变化。
即便ASIC取得成功,客户仍需平衡其计算集群的配置,而英伟达的生态系统能提供多样化的选择。我们推出的Dynamo(分布式人工智能工作负载编排工具)和NV Fusion(与英特尔等公司合作的技术),允许竞争对手接入我们的人工智能工厂,这对双方来说是双赢的选择。
格斯特纳:你曾表示,即便竞争对手的芯片免费提供,客户仍会选择英伟达的系统,因为运营成本(如电力、场地等)更低。能否详细解释一下这一点?
[加西网正招聘多名全职sales 待遇优]
分享: |
注: | 在此页阅读全文 |
延伸阅读 |
推荐: