DeepSeek塞進蘋果本兒 分幣不花實現"龍蝦自由"
在M3 Max 128GB的MacBook Pro上,實測速度是每秒能生成26個字左右。M3 Ultra 512GB的Mac Studio上能跑到每秒36個字。
不算快,但寫代碼、調試這些日常工作完全夠用。
更有意思的是,antirez是獨自壹人通過GPT-5.5完成的整個這個項目。
利好DeepSeek
根據外媒報道,DeepSeek目前正在尋求高達73.5億美元的融資,梁文鋒現在就處在這個關鍵的轉折點上,用商業敘事取代DeepSeek過往的技術敘事。
那投資人看什麼?不只是看模型跑分,不只是看API調用量,更看生態位和不可替代性。
壹個海外知名開發大佬,願意為你的模型寫專用引擎,這本身就說明DeepSeek在海外有著壹定的生態地位。
過去壹年,中國開源模型的出海敘事裡,主流衡量標准是benchmark,MMLU、HumanEval、SWE-bench,壹串又壹串的數字。
但有人願意圍繞你做贰次工程,才代表你的模型被認可了。Anthropic用千問做實驗,Cursor蒸餾Kimi,這種認可比分數更值錢。
antirez不是AI圈裡那種什麼新模型都要試壹遍的博主
他選壹個模型,然後還要花幾周的時間去寫專用推理引擎、做特制量化、搭HTTP服務層、做agent集成測試,顯然是他認為DeepSeek值得。
這就變相等於,壹個有信譽的第叁方,在用自己的時間和名聲給DeepSeek-V4背書。
說到國產模型出海,目前我能想到的路有兩條。
壹條是API被調用。你提供服務,別人付費使用,你是service provider,客戶是consumer。
這條路很直接,也很現實,別人可以隨時切換,你無時無刻都得對抗你的競品,從性能到價格。
另壹條是模型被改造。有人把你的權重拿走,做量化、做蒸餾、做專用runtime、做本地部署、做agent工具鏈。在這條路裡,你的模型成了材料。
材料和服務的區別在於,材料會被嵌入到別人的工具鏈裡,然後就很難被換掉了。
舉個例子,某個開發者把ds4集成到自己的coding agent裡,寫了壹堆配置文件、調試腳本、自動化流程。他的團隊成員也都習慣了這套工具,公司的代碼庫裡到處都是基於DeepSeek本地推理的調用。
這時候如果要換成別的模型,就不是“改個API key”那麼簡單了,而是要重新適配引擎、重寫腳本、重新培訓團隊習慣。成本太高,大概率就不換了。
這就是“被嵌入”的粘性。
ds4把DeepSeek V4 Flash嵌進了Metal原生本地推理這個場景。截至發稿,Hugging Face上antirez那個deepseek-v4-gguf倉庫,就已經有25000次下載了。

每壹次下載,都意味著有人在自己的機器上跑起了DeepSeek,粘性也就這麼壹點壹點的建立起來了。
更值得注意的是連鎖效應。
Hacker News上有這樣壹條高贊評論,他說如果以後針對精確的GPU加模型組合構建超優化推理引擎會怎樣?GPU越來越貴,抽象層去掉得越多,優化空間就越大。
這個方向壹旦被驗證,意味著每壹代有分量的開源模型發布時,都會有人跳出來給它做專屬引擎、專屬量化、專屬agent接入。
[物價飛漲的時候 這樣省錢購物很爽]
好新聞沒人評論怎麼行,我來說幾句
不算快,但寫代碼、調試這些日常工作完全夠用。
更有意思的是,antirez是獨自壹人通過GPT-5.5完成的整個這個項目。
利好DeepSeek
根據外媒報道,DeepSeek目前正在尋求高達73.5億美元的融資,梁文鋒現在就處在這個關鍵的轉折點上,用商業敘事取代DeepSeek過往的技術敘事。
那投資人看什麼?不只是看模型跑分,不只是看API調用量,更看生態位和不可替代性。
壹個海外知名開發大佬,願意為你的模型寫專用引擎,這本身就說明DeepSeek在海外有著壹定的生態地位。
過去壹年,中國開源模型的出海敘事裡,主流衡量標准是benchmark,MMLU、HumanEval、SWE-bench,壹串又壹串的數字。
但有人願意圍繞你做贰次工程,才代表你的模型被認可了。Anthropic用千問做實驗,Cursor蒸餾Kimi,這種認可比分數更值錢。
antirez不是AI圈裡那種什麼新模型都要試壹遍的博主
他選壹個模型,然後還要花幾周的時間去寫專用推理引擎、做特制量化、搭HTTP服務層、做agent集成測試,顯然是他認為DeepSeek值得。
這就變相等於,壹個有信譽的第叁方,在用自己的時間和名聲給DeepSeek-V4背書。
說到國產模型出海,目前我能想到的路有兩條。
壹條是API被調用。你提供服務,別人付費使用,你是service provider,客戶是consumer。
這條路很直接,也很現實,別人可以隨時切換,你無時無刻都得對抗你的競品,從性能到價格。
另壹條是模型被改造。有人把你的權重拿走,做量化、做蒸餾、做專用runtime、做本地部署、做agent工具鏈。在這條路裡,你的模型成了材料。
材料和服務的區別在於,材料會被嵌入到別人的工具鏈裡,然後就很難被換掉了。
舉個例子,某個開發者把ds4集成到自己的coding agent裡,寫了壹堆配置文件、調試腳本、自動化流程。他的團隊成員也都習慣了這套工具,公司的代碼庫裡到處都是基於DeepSeek本地推理的調用。
這時候如果要換成別的模型,就不是“改個API key”那麼簡單了,而是要重新適配引擎、重寫腳本、重新培訓團隊習慣。成本太高,大概率就不換了。
這就是“被嵌入”的粘性。
ds4把DeepSeek V4 Flash嵌進了Metal原生本地推理這個場景。截至發稿,Hugging Face上antirez那個deepseek-v4-gguf倉庫,就已經有25000次下載了。

每壹次下載,都意味著有人在自己的機器上跑起了DeepSeek,粘性也就這麼壹點壹點的建立起來了。
更值得注意的是連鎖效應。
Hacker News上有這樣壹條高贊評論,他說如果以後針對精確的GPU加模型組合構建超優化推理引擎會怎樣?GPU越來越貴,抽象層去掉得越多,優化空間就越大。
這個方向壹旦被驗證,意味著每壹代有分量的開源模型發布時,都會有人跳出來給它做專屬引擎、專屬量化、專屬agent接入。
[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 |
推薦:



