[谷歌] 壹文讀懂谷歌TPU:英偉達暴跌跟它有關

Alphabet兼谷歌首席執行官桑達爾·皮查伊
文丨無忌
編輯丨蘇揚
股價“跌跌不休”,英偉達都不得不站出來表態,“我們領先了全行業壹代”。
事情要從巴菲特“謝幕之作”說起——伯克希爾·哈撒韋公司首次建倉谷歌母公司Alphabet股票,隨後更勁爆的是市場又傳出英偉達大客戶Meta考慮2027年在其數據中心部署谷歌TPU,並於2026年通過谷歌雲租用TPU算力。
英偉達在緊急聲明中,強調GPU在性能、通用性和可移植性方面“遠優於”ASIC(專用集成電路),並重申自研TPU無法替代 GPU的靈活性。谷歌發言人也表示繼續和英偉達保持合作關系,並強調公司致力於同時支持TPU和英偉達GPU。
TPU,從壹個10年前為了解決AI計算效率瓶頸的“救命項目”,如今已經發展成為谷歌的“經濟支柱”。
作為自研ASIC芯片的代表,TPU已經具備動搖英偉達根基的潛力,只不過谷歌的邏輯不是和英偉達比單卡性能,而是在用壹套完全不同的超大規模系統哲學,重新定義AI基礎設施的未來。
壹切都要從10年前,TPU誕生的那壹刻說起。
01 TPU的前世今生

TPU v1
谷歌在2015年啟動TPU項目,這並非出於炫技,更不是為了彰顯技術實力,而是被逼入了壹個“不自研將難以支撐未來業務規模”的現實。
隨著深度學習在谷歌內部的應用不斷擴散,谷歌工程團隊當時意識到壹個關鍵問題正在逼近——包括搜索、廣告等谷歌核心服務都涉及巨量用戶請求,如果全面采用深度學習模型,那麼谷歌全球數據中心的功耗將暴漲至難以承受的程度,即使采購再多GPU也無法滿足需求,更不用說成本上的激增。
彼時GPU更適合訓練大規模神經網絡,但其能效並非針對實時在線推理設計。
谷歌內部甚至出現過預測:如果未來所有核心業務上線深度模型,全球數據中心的電力成本會增長拾倍。內部高層意識到,繼續依賴 CPU和GPU的現有路線不可持續。
因此,谷歌決定自研ASIC加速器,目標不是造壹個“最強通用芯片”,而是造壹個“可大量部署在數據中心、用於特定矩陣運算的高能效芯片”。
最終,TPU v1在2016年正式投入使用,用於支持谷歌翻譯以及部分搜索功能,證明了ASIC方案具備可行性。
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦: