网友们怒了!DeepSeek更新后 彻底"变傻"
图源:小红书
最后大家只能自发号召,让大家给官方邮箱提意见。还有人嫌折腾,直接去豌豆荚下载旧版,甚至转去用腾讯元宝平台。毕竟腾讯元宝本身就搭载了 DeepSeek 的旧版模型,用着比新版顺手多了。
小雷也能理解,官方可能是想在 V4 版本正式上线前,做一次压力测试,这次的更新更像是个极速版,牺牲质量换速度,为了快速推出新功能,忽略了用户的核心体验。
小雷认为,AI 的核心从来不是堆参数,而是好用、能用、靠得住。如果一味追求新功能,忽略了基础体验和用户习惯,就算参数再高、功能再全,也留不住用户。现在可选择的 AI 太多了,你不好用,大家转身就能走。
不过话说回来,也不是所有人都在吐槽,有少数用户肯定了新版的优势。
比如做法律、编程的朋友说,用它分析法律卷宗、重构代码库效率特别高,而且成本只有竞品的十分之一,这也算是这次更新里为数不多的亮点,只是当前舆情还是以负面为主。

图源:DeepSeek
截至现在,DeepSeek 官方还没对这次的吐槽做出任何回应,不知道后续会不会调整。只有官方的技术账号悄悄暗示,这次更新包含条件记忆技术优化。除此之外,连一句解释都没有。
相关报道:DeepSeek变冷淡了
2月11日,深度求索(DeepSeek)悄悄地对其旗舰模型进行灰度测试。
此次更新的核心亮点是,模型上下文窗口从原先的128K Tokens大幅提升至1M Tokens,实现了近8倍的容量增长。在AI大模型领域,上下文窗口决定了模型在单次交互中能够记忆和处理的信息量上限。
一位国产大模型厂商人士解释,此前DeepSeek的主流模型支持128K Tokens的上下文,这一长度可以应对长篇论文或中等规模的代码文件,但处理超长文学作品或较大体量编程工作,往往需要借助RAG(检索增强生成)技术,这导致信息碎片化和推理精度下降。
升级后的1M Tokens窗口意味着DeepSeek可以一次性吞吐约75万到90万个英文字母,或者处理约8万到15万行代码。
DeepSeek称,自己可以一次性读入并精准理解《三体》三部曲(约90万字)的全书内容,并在几分钟内完成对整部作品的宏观分析或细节检索。除了上下文能力的提升,DeepSeek的知识库从2024年中期版本更新至2025年5月。
不过,此次灰度版本仍未同步上线视觉理解或多模态输入功能,仍专注于纯文本和语音交互。虽然DeepSeek在App端已支持PDF、TXT等文件上传,但目前的处理逻辑是将文件转录为文本Token进行处理,而非原生的多模态理解。
和GPT-5.1、Gemini 3 pro、Claude 4.5等大模型相比,DeepSeek依然主打性价比。以Gemini 3 Pro为例,Google支持2M以上长文本处理,可以同时处理大量视频、音频和文本的复杂媒体任务,但DeepSeek以约十分之一的价格提供了1M文本上下文处理能力。
官方没有通知,用户更早注意到了模型的变化。2月11日,一名用DeepSeek生成小说的用户发现,模型更新后,此前消息达到上限的对话框可以续写了,但文风大变。她形容,更新后的DeepSeek“文绉绉的”,在深度思考模式下也常吐出短句,像在写诗。
部分用户在社交媒体上控诉:DeepSeek不再称呼自己设定的昵称,而统一称“用户”。此前深度思考模式下,DeepSeek的思考过程会以角色视角展示细腻的心理描写,例如“夜儿(用户昵称)总爱逗我”,更新后则变成了“好的,用户这次想了解……”。
[物价飞涨的时候 这样省钱购物很爽]
无评论不新闻,发表一下您的意见吧
最后大家只能自发号召,让大家给官方邮箱提意见。还有人嫌折腾,直接去豌豆荚下载旧版,甚至转去用腾讯元宝平台。毕竟腾讯元宝本身就搭载了 DeepSeek 的旧版模型,用着比新版顺手多了。
小雷也能理解,官方可能是想在 V4 版本正式上线前,做一次压力测试,这次的更新更像是个极速版,牺牲质量换速度,为了快速推出新功能,忽略了用户的核心体验。
小雷认为,AI 的核心从来不是堆参数,而是好用、能用、靠得住。如果一味追求新功能,忽略了基础体验和用户习惯,就算参数再高、功能再全,也留不住用户。现在可选择的 AI 太多了,你不好用,大家转身就能走。
不过话说回来,也不是所有人都在吐槽,有少数用户肯定了新版的优势。
比如做法律、编程的朋友说,用它分析法律卷宗、重构代码库效率特别高,而且成本只有竞品的十分之一,这也算是这次更新里为数不多的亮点,只是当前舆情还是以负面为主。

图源:DeepSeek
截至现在,DeepSeek 官方还没对这次的吐槽做出任何回应,不知道后续会不会调整。只有官方的技术账号悄悄暗示,这次更新包含条件记忆技术优化。除此之外,连一句解释都没有。
相关报道:DeepSeek变冷淡了
2月11日,深度求索(DeepSeek)悄悄地对其旗舰模型进行灰度测试。
此次更新的核心亮点是,模型上下文窗口从原先的128K Tokens大幅提升至1M Tokens,实现了近8倍的容量增长。在AI大模型领域,上下文窗口决定了模型在单次交互中能够记忆和处理的信息量上限。
一位国产大模型厂商人士解释,此前DeepSeek的主流模型支持128K Tokens的上下文,这一长度可以应对长篇论文或中等规模的代码文件,但处理超长文学作品或较大体量编程工作,往往需要借助RAG(检索增强生成)技术,这导致信息碎片化和推理精度下降。
升级后的1M Tokens窗口意味着DeepSeek可以一次性吞吐约75万到90万个英文字母,或者处理约8万到15万行代码。
DeepSeek称,自己可以一次性读入并精准理解《三体》三部曲(约90万字)的全书内容,并在几分钟内完成对整部作品的宏观分析或细节检索。除了上下文能力的提升,DeepSeek的知识库从2024年中期版本更新至2025年5月。
不过,此次灰度版本仍未同步上线视觉理解或多模态输入功能,仍专注于纯文本和语音交互。虽然DeepSeek在App端已支持PDF、TXT等文件上传,但目前的处理逻辑是将文件转录为文本Token进行处理,而非原生的多模态理解。
和GPT-5.1、Gemini 3 pro、Claude 4.5等大模型相比,DeepSeek依然主打性价比。以Gemini 3 Pro为例,Google支持2M以上长文本处理,可以同时处理大量视频、音频和文本的复杂媒体任务,但DeepSeek以约十分之一的价格提供了1M文本上下文处理能力。
官方没有通知,用户更早注意到了模型的变化。2月11日,一名用DeepSeek生成小说的用户发现,模型更新后,此前消息达到上限的对话框可以续写了,但文风大变。她形容,更新后的DeepSeek“文绉绉的”,在深度思考模式下也常吐出短句,像在写诗。
部分用户在社交媒体上控诉:DeepSeek不再称呼自己设定的昵称,而统一称“用户”。此前深度思考模式下,DeepSeek的思考过程会以角色视角展示细腻的心理描写,例如“夜儿(用户昵称)总爱逗我”,更新后则变成了“好的,用户这次想了解……”。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 |
推荐:



