AI救活了壹家馬桶公司,也點燃了存儲芯片超級周期
這組數字意味著,如果全球有叁個這種規模的模型,比如ChatGPT+Gemini+Claude,僅僅是純文本推理的需求,就會占到2026年全球HBM供給的17%、DRAM的35%、NAND的92%。而這還沒有把圖片、視頻等多模態需求算進去。
更重要的是,這套測算對上下文長度非常敏感。摩根士丹利的敏感性分析顯示,如果把輸入從每次2000 token,提高到5000 token,在其他條件不變時,每個模型的DRAM需求會再增加約2EB,Rack SSD/NAND再增加約3EB。也就是說,隨著更長上下文和更長思考鏈成為常態,這對存儲的壓力會迅速放大。

SemiAnalysis管這叫“內存帕金森定律”:HBM容量每提升壹次,開發者就會立刻構建更大的模型來把它填滿。以前用來壓縮模型的各種技巧,壹有新空間就被放松,直到再次撞牆,這就意味著:存儲永遠是下壹個瓶頸。
這也是為什麼業內有聲音會認為,存儲芯片廠商,可能集體低估了大語言模型token激增所帶來的需求。
Rob Li
紐約Amont Partners管理合伙人
以前的周期可能也就壹年半到兩年時間,這次周期有可能會持續壹個很長的壹個時間,或者說當壹個周期性的行業,變成壹個結構性增長的行業,它就不再是個周期了。
而這個周期的另外壹個決定性因素,就是產能上的供應擴張,問題是,為什麼擴產會這麼挑戰呢?
05 越擴產越短缺:HBM-DRAM困境與博弈
理解這輪超級周期,還有壹個核心密碼在於搞懂壹個看上去很矛盾的現象:HBM的大規模擴產,不但沒緩解DRAM的短缺,反而讓它更嚴重了。
SemiAnalysis的追蹤數據顯示,2023年底,叁大存儲廠商分配給HBM的晶圓產能大約12.3萬片/月。到2025年底漲到了33.1萬片/月,兩年擴了將近3倍。預計到2027年底還會進壹步到66.8萬片/月,肆年翻5倍。

擴得這麼猛,為什麼DRAM還是緊缺?關鍵在於,做HBM要消耗大量普通DRAM的產能,而且效率極低。
HBM是壹種極其消耗晶圓的架構。壹片用於HBM3E 12層堆疊的晶圓,位產出(也就是能生產出來的存儲容量)只有普通DRAM晶圓的大約叁分之壹,到了HBM4,這個比例可能進壹步惡化到肆分之壹。
Candice Hu
叁星存儲產品營銷經理
[加西網正招聘多名全職sales 待遇優]
這條新聞還沒有人評論喔,等著您的高見呢
更重要的是,這套測算對上下文長度非常敏感。摩根士丹利的敏感性分析顯示,如果把輸入從每次2000 token,提高到5000 token,在其他條件不變時,每個模型的DRAM需求會再增加約2EB,Rack SSD/NAND再增加約3EB。也就是說,隨著更長上下文和更長思考鏈成為常態,這對存儲的壓力會迅速放大。

SemiAnalysis管這叫“內存帕金森定律”:HBM容量每提升壹次,開發者就會立刻構建更大的模型來把它填滿。以前用來壓縮模型的各種技巧,壹有新空間就被放松,直到再次撞牆,這就意味著:存儲永遠是下壹個瓶頸。
這也是為什麼業內有聲音會認為,存儲芯片廠商,可能集體低估了大語言模型token激增所帶來的需求。
Rob Li
紐約Amont Partners管理合伙人
以前的周期可能也就壹年半到兩年時間,這次周期有可能會持續壹個很長的壹個時間,或者說當壹個周期性的行業,變成壹個結構性增長的行業,它就不再是個周期了。
而這個周期的另外壹個決定性因素,就是產能上的供應擴張,問題是,為什麼擴產會這麼挑戰呢?
05 越擴產越短缺:HBM-DRAM困境與博弈
理解這輪超級周期,還有壹個核心密碼在於搞懂壹個看上去很矛盾的現象:HBM的大規模擴產,不但沒緩解DRAM的短缺,反而讓它更嚴重了。
SemiAnalysis的追蹤數據顯示,2023年底,叁大存儲廠商分配給HBM的晶圓產能大約12.3萬片/月。到2025年底漲到了33.1萬片/月,兩年擴了將近3倍。預計到2027年底還會進壹步到66.8萬片/月,肆年翻5倍。

擴得這麼猛,為什麼DRAM還是緊缺?關鍵在於,做HBM要消耗大量普通DRAM的產能,而且效率極低。
HBM是壹種極其消耗晶圓的架構。壹片用於HBM3E 12層堆疊的晶圓,位產出(也就是能生產出來的存儲容量)只有普通DRAM晶圓的大約叁分之壹,到了HBM4,這個比例可能進壹步惡化到肆分之壹。
Candice Hu
叁星存儲產品營銷經理
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 |
推薦:
AI救活了壹家馬桶公司,也點燃了存儲芯片超級周期