[加州] 中國的大模型成本僅國外叁拾分之壹,硅谷恐慌
“Meta的生成式AI部門正處於恐慌中。這壹切始於 Deepseek,它使得 Llama 4 在基准測試中已經落後。雪上加霜的是:那個不知名的中國公司,僅有 550 萬美元的訓練預算。工程師們正在瘋狂地剖析 Deepseek,並試圖從中復制壹切可能的東西……”
壹位Meta的工程師在美國科技公司員工社區Blind中這樣寫道。
5天前,中國的壹家AI大模型創業公司DeepSeek(深度求索)正式發布 DeepSeek-R1大模型。在發布聲明中,DeepSeek表示, DeepSeek-R1在數學、代碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版。這壹消息震動了全球AI圈。
例如,在AIME 2024數學基准測試中,DeepSeek-R1的得分率為79.8%,而OpenAI-o1的得分率為79.2%。在MATH-500基准測試中,DeepSeek-R1的得分率為97.3%,而OpenAI-o1的得分率為96.4%。在編碼任務中,DeepSeek-R1超過了96.3%的人類選手,而o1是96.6%。
01 壹樣好用,但成本不到叁拾分之壹
這個來自中國的大模型,雖然各項指標往往只是與國外的競品“相當”,最多也只是“略強”,但它的低成本,以及在算力資源上的節省,仍然令國外同行在《自然》雜志上驚呼:“這太瘋狂了,完全出乎意料”。
DeepSeek 現在尚未公布訓練 R1 的完整成本,但它公布了API的定價,每百萬輸入 tokens 1 元(緩存命中)/ 4 元(緩存未命中),每百萬輸出 tokens 16 元。這個收費大約是 OpenAI o1運行成本的叁拾分之壹。
在低價優質的基礎上,DeepSeek-R1還實現了部分開源。官方聲明同步開源了模型權重,允許研究者和開發者在自己的項目中自由使用該模型,或在其基礎上進行進壹步的研究和開發。DeepSeek-R1系列支持商業用途,並且允許用戶對模型進行任何形式的修改和衍生創作。同時,DeepSeek-R1對用戶開放思維鏈輸出,這意味著我們能直接看到它以文本形式輸出的“思考”過程。

在AIME 2024數學基准測試中,DeepSeek-R1的得分率為79.8%,而OpenAI-o1的得分率為79.2%。在MATH-500基准測試中,DeepSeek-R1的得分率為97.3%,而OpenAI-o1的得分率為96.4%。在編碼任務中,DeepSeek-R1超過了96.3%的人類選手,而o1是96.6%。
去年 12 月底,DeepSeek發布的DeepSeek-V3已經引起過壹次AI圈的震動。它的性能GPT-4o和Claude Sonnet 3.5等頂尖模型相近,但訓練成本極低。整個訓練在2048塊英偉達H800 GPU集群上完成,僅花費約557.6萬美元,不到其他頂尖模型訓練成本的拾分之壹。
GPT-4o等模型的訓練成本約為1億美元,至少在萬個GPU量級的計算集群上訓練,而且使用的是性能更為優越的H100 GPU。例如,同為頂尖大模型,去年發布的Llama 3.1在訓練過程中使用了16,384塊H100 GPU,消耗了DeepSeek-V3 11倍的計算資源,成本超過6000萬美元。
隨著大模型的競爭越來越卷,去年OpenAI、Meta、Google以及馬斯克的xAI,各大AI巨頭都開始打造自己的萬卡(GPU)集群,萬卡集群似乎成了訓練頂尖大模型的入場券。但DeepSeek卻用不到拾分之壹的資源打造出性能相近的大模型,這讓習慣了資源競賽的硅谷AI界人士感到意外。
DeepSeek-V3發布後,英偉達高級研究科學家Jim Fan曾在社交媒體上表示,“DeepSeek是本年度開源大語言模型領域的最大黑馬。
硅谷人工智能數據服務公司Scale AI的創始人亞歷山大·王(Alexander Wang)則在社交媒體上直言不諱地表達了對中國科技界追趕美國的擔憂。他認為DeepSeek-V3的發布,是中國科技界帶給美國的苦澀教訓。“當美國休息時,中國(科技界)在工作,以更低的成本、更快的速度和更強的實力趕上。”
[加西網正招聘多名全職sales 待遇優]
好新聞沒人評論怎麼行,我來說幾句
壹位Meta的工程師在美國科技公司員工社區Blind中這樣寫道。
5天前,中國的壹家AI大模型創業公司DeepSeek(深度求索)正式發布 DeepSeek-R1大模型。在發布聲明中,DeepSeek表示, DeepSeek-R1在數學、代碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版。這壹消息震動了全球AI圈。
例如,在AIME 2024數學基准測試中,DeepSeek-R1的得分率為79.8%,而OpenAI-o1的得分率為79.2%。在MATH-500基准測試中,DeepSeek-R1的得分率為97.3%,而OpenAI-o1的得分率為96.4%。在編碼任務中,DeepSeek-R1超過了96.3%的人類選手,而o1是96.6%。
01 壹樣好用,但成本不到叁拾分之壹
這個來自中國的大模型,雖然各項指標往往只是與國外的競品“相當”,最多也只是“略強”,但它的低成本,以及在算力資源上的節省,仍然令國外同行在《自然》雜志上驚呼:“這太瘋狂了,完全出乎意料”。
DeepSeek 現在尚未公布訓練 R1 的完整成本,但它公布了API的定價,每百萬輸入 tokens 1 元(緩存命中)/ 4 元(緩存未命中),每百萬輸出 tokens 16 元。這個收費大約是 OpenAI o1運行成本的叁拾分之壹。
在低價優質的基礎上,DeepSeek-R1還實現了部分開源。官方聲明同步開源了模型權重,允許研究者和開發者在自己的項目中自由使用該模型,或在其基礎上進行進壹步的研究和開發。DeepSeek-R1系列支持商業用途,並且允許用戶對模型進行任何形式的修改和衍生創作。同時,DeepSeek-R1對用戶開放思維鏈輸出,這意味著我們能直接看到它以文本形式輸出的“思考”過程。

在AIME 2024數學基准測試中,DeepSeek-R1的得分率為79.8%,而OpenAI-o1的得分率為79.2%。在MATH-500基准測試中,DeepSeek-R1的得分率為97.3%,而OpenAI-o1的得分率為96.4%。在編碼任務中,DeepSeek-R1超過了96.3%的人類選手,而o1是96.6%。
去年 12 月底,DeepSeek發布的DeepSeek-V3已經引起過壹次AI圈的震動。它的性能GPT-4o和Claude Sonnet 3.5等頂尖模型相近,但訓練成本極低。整個訓練在2048塊英偉達H800 GPU集群上完成,僅花費約557.6萬美元,不到其他頂尖模型訓練成本的拾分之壹。
GPT-4o等模型的訓練成本約為1億美元,至少在萬個GPU量級的計算集群上訓練,而且使用的是性能更為優越的H100 GPU。例如,同為頂尖大模型,去年發布的Llama 3.1在訓練過程中使用了16,384塊H100 GPU,消耗了DeepSeek-V3 11倍的計算資源,成本超過6000萬美元。
隨著大模型的競爭越來越卷,去年OpenAI、Meta、Google以及馬斯克的xAI,各大AI巨頭都開始打造自己的萬卡(GPU)集群,萬卡集群似乎成了訓練頂尖大模型的入場券。但DeepSeek卻用不到拾分之壹的資源打造出性能相近的大模型,這讓習慣了資源競賽的硅谷AI界人士感到意外。
DeepSeek-V3發布後,英偉達高級研究科學家Jim Fan曾在社交媒體上表示,“DeepSeek是本年度開源大語言模型領域的最大黑馬。
硅谷人工智能數據服務公司Scale AI的創始人亞歷山大·王(Alexander Wang)則在社交媒體上直言不諱地表達了對中國科技界追趕美國的擔憂。他認為DeepSeek-V3的發布,是中國科技界帶給美國的苦澀教訓。“當美國休息時,中國(科技界)在工作,以更低的成本、更快的速度和更強的實力趕上。”
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦:



