DeepSeek"日赚"56万,"朋友圈"掀起算力战

硅基流动袁进辉宣布因需求大开始限流
这些DeepSeek“朋友圈”,它们的算力到底够不够?
「硅基研究室」多方了解到,在这一问题上,行业目前的共识是短期算力洗牌,长期算力短缺。
「短期算力洗牌」指的是DeepSeek打破了过去模型厂商“大力出奇迹”的叙事,它在模型架构、预训练和推理侧的系统级工程手段,拉低了模型部署的算力门槛,短期内给国产芯片、算力服务商等整合国产算力、推动国产算力洗牌提供了机会窗口。
具体来看又可以分为两方面,一是给国产芯片提供了更多机会;二是解部分智算中心算力闲置的困局。
关于第一点,一直以来,强劲性能都是英伟达高端GPU的护城河,也是起步较晚的国产芯片的一大软肋。
DeepSeek的出现一定程度上降低了对高性能芯片的依赖,作为采用MoE架构的大模型,DeepSeek对芯片训练性能的要求并不高,即便是像英伟达H20这样的性能阉割版GPU,也可以胜任DeepSeek的本地化部署需求,甚至成为了目前渠道端的“热销货”。
一位芯片渠道商告诉「硅基研究室」,H20 141GB八卡服务器目前是120万一台,是期货,要等4-6周,96GB H20八卡服务器还有不少现货,但“每天一个价”。
相较于训练场景,DeepSeek对于硬件侧的需求更多聚焦在“堆料环节”。
陈巍告诉「硅基研究室」,“像DeepSeek这样的超大超稀疏MoE模型,显存远远不够用。从产业角度而言,适配高端GPU的高带宽存储器(HBM)又很贵。”
这意味着,单纯靠增大GPU显存来适配DeepSeek,会凭空增加巨大的成本。

这也是为什么,业内一直在探索更具性价比的部署方案。“一种合理的部署方式就是CPU/GPU多专家多显卡的部署方案,还有一种是直接用CPU的内存去充当不常用细分专家的存储缓存。”陈巍说。
而这两种方案所对应的“算力性价比”和“异构协同”能力,正是国产芯片长期发力的差异化优势。
另有大模型行业人士提到,国产生态对DeepSeek也并不陌生,2024年DeepSeek发布第二代开源大模型DeepSee-V2时,硅基流动就基于英伟达生态上线了推理服务,对其模型架构等方面也十分熟悉。
AI Infra厂商所做的工作涵盖了数据准备、模型训练、部署和应用整合等,硅基流动主要通过其模型云服务平台SiliconCloud、大语言模型推理引擎SiliconLLM等产品,让模型能力能按需调用。打个比方,它们相当于是一个“厨师”,将原始算力资源加工成符合用户需求的“成品菜”,自上线DeepSeek R1/V3推理服务后,SimilarWeb数据显示,给硅基流动带来了数十倍的流量增长,目前SiliconCloud已获得了超三百万的用户。
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
推荐:
DeepSeek"日赚"56万,"朋友圈"掀起算力战