AI救活了壹家馬桶公司,也點燃了存儲芯片超級周期
內存就像壹塊小黑板,以前我們計算的是1+1=2,所以你不需要壹塊巨大的黑板,壹塊正常的黑板就夠了。只是來到了AI時代,現在計算的強度會很高,也很復雜,有很多步。如果我是壹塊小黑板,你每寫壹次、擦掉壹次,又寫壹次、又再擦掉壹次,有100步的計算的話,你需要擦100次,就會耗費你的時間。所以我們現在需要造壹塊巨大無比的黑板,我可以壹口氣把算數的100個步驟全部寫完,再壹口氣擦掉,這樣可以省我的時間。
所以,壹塊越來越大的黑板,這就是AI時代對存儲的需求。
4.2 從訓練到推理:存儲需求發生了質變
在生成式AI的早期階段,算力和錢都砸在了模型訓練上,訓練階段存儲系統幹的活兒,主要是向上千個GPU高效喂數據,以及定期做模型檢查點,防止訓練中斷功虧壹簣。
但如今,推理正在迅速成為主戰場,而推理對存儲的需求模式,比訓練復雜得多。
它需要把模型從存儲層加載到內存層:活躍權重主要駐留在HBM,部分狀態和緩存則留在DRAM;當KV Cache(鍵值緩存)在高層內存中裝不下時,壹部分會被卸載到SSD/NAND上,需要時再取回;而RAG查詢依賴的外部知識,通常存放在更後端的共享存儲或數據湖中,由檢索系統實時調取。

而更大的變量是AI Agent的崛起。摩根士丹利在最新研報中指出,2026年將是AI從實驗走向核心基礎設施的壹年,這些智能體更可靠、更有記憶力、幻覺更少,還能持續學習。這份研報中寫到說:“推理正在成為壹種內存挑戰,而不僅僅是計算挑戰”。

但智能體要運轉起來,就需要維護多層記憶:短期工作記憶(當前對話)、長期記憶(跨會話的用戶歷史)、預訓練知識庫、工具調用記錄……而每壹層都需要不同層級的存儲支撐:從HBM裡的“熱數據”,到DRAM裡的“溫數據”,再到NAND SSD裡的“冷數據”。
所以趨勢很明顯:AI的下壹波進步,不是來自更強的推理能力,而是來自更好的上下文處理。壹個能記住壹切的AI助手,比壹個更大但什麼都記不住的模型有用得多。對於存儲來說,這意味著什麼呢?
4.3 算筆賬:AI到底要吃掉多少存儲?
摩根士丹利做了壹個非常詳細的分層測算。他們以壹個類似ChatGPT規模的模型為基准,假設大約8億周活躍用戶、峰值每秒30萬請求、每次請求2000個輸入token,並且假設只算文本,圖片和視頻不計入。按這個要求詳細拆分結果,這樣的系統大致對應HBM 226PB、DRAM 4.6EB、NAND/SSD約47EB、數據湖約294EB的需求。

[加西網正招聘多名全職sales 待遇優]
還沒人說話啊,我想來說幾句
所以,壹塊越來越大的黑板,這就是AI時代對存儲的需求。
4.2 從訓練到推理:存儲需求發生了質變
在生成式AI的早期階段,算力和錢都砸在了模型訓練上,訓練階段存儲系統幹的活兒,主要是向上千個GPU高效喂數據,以及定期做模型檢查點,防止訓練中斷功虧壹簣。
但如今,推理正在迅速成為主戰場,而推理對存儲的需求模式,比訓練復雜得多。
它需要把模型從存儲層加載到內存層:活躍權重主要駐留在HBM,部分狀態和緩存則留在DRAM;當KV Cache(鍵值緩存)在高層內存中裝不下時,壹部分會被卸載到SSD/NAND上,需要時再取回;而RAG查詢依賴的外部知識,通常存放在更後端的共享存儲或數據湖中,由檢索系統實時調取。

而更大的變量是AI Agent的崛起。摩根士丹利在最新研報中指出,2026年將是AI從實驗走向核心基礎設施的壹年,這些智能體更可靠、更有記憶力、幻覺更少,還能持續學習。這份研報中寫到說:“推理正在成為壹種內存挑戰,而不僅僅是計算挑戰”。

但智能體要運轉起來,就需要維護多層記憶:短期工作記憶(當前對話)、長期記憶(跨會話的用戶歷史)、預訓練知識庫、工具調用記錄……而每壹層都需要不同層級的存儲支撐:從HBM裡的“熱數據”,到DRAM裡的“溫數據”,再到NAND SSD裡的“冷數據”。
所以趨勢很明顯:AI的下壹波進步,不是來自更強的推理能力,而是來自更好的上下文處理。壹個能記住壹切的AI助手,比壹個更大但什麼都記不住的模型有用得多。對於存儲來說,這意味著什麼呢?
4.3 算筆賬:AI到底要吃掉多少存儲?
摩根士丹利做了壹個非常詳細的分層測算。他們以壹個類似ChatGPT規模的模型為基准,假設大約8億周活躍用戶、峰值每秒30萬請求、每次請求2000個輸入token,並且假設只算文本,圖片和視頻不計入。按這個要求詳細拆分結果,這樣的系統大致對應HBM 226PB、DRAM 4.6EB、NAND/SSD約47EB、數據湖約294EB的需求。

[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 |
推薦:
AI救活了壹家馬桶公司,也點燃了存儲芯片超級周期