DeepSeek V4 从春节就开始传「下月发布」,结果一等就是三个月。每次「下周就来」都落空,圈内人甚至给它起了个外号——「最难等的国产大模型」。
为什么这么受关注?因为 V3 版本已经让整个 AI 圈震动了——训练成本只有 GPT-4 的十分之一,性能却能掰掰手腕。那 V4 会是什么?
传闻中的四大突破
1. 长期记忆:Engram 条件记忆机制
现在的 AI 有个致命问题——聊完就忘。你跟它说过的背景信息,下次对话它完全不知道。
V4 据传引入了自研的 Engram 条件记忆机制,能做到近乎「过目不忘」。对话历史、知识库都能永久保存。这意味着 AI 第一次能真正「认识」你——不是每次清零的陌生人,而是了解你背景、知道你目标的长期伙伴。
2. 工程级编程
之前 AI 编程更多是「辅助写代码」——你告诉它需求,它生成片段。
V4 据说直接升级到「给我一个 10 万行的代码库,帮我做重构和漏洞检测」。支持 338 种编程语言,跨文件代码库理解,SWE-Bench 测试表现优异。这已经不是助手了,这是初级工程师的水平。
3. 多模态原生融合
之前很多模型的多模态是外挂的——文本一套、图像一套,拼接在一起。V4 据传是端到端原生融合,文本、图像、视频在底层就打通了,不需要任何插件。
4. 国产芯片训练
V4 据传采用华为芯片训练,阿里、字节、腾讯都下了大单。国产大模型用国产芯片,这件事本身的战略意义不亚于技术突破本身。
注意
以上信息均为网络传闻和分析推测,DeepSeek 官方尚未确认 V4 的发布计划。结合我们之前发布的 《DeepSeek 变 DeepSleep?V4 为什么还没来》 一文的分析,V3 之后其实一直在持续迭代(V3.1 → V3.2),只是没有出现 R1 级别的全民热搜事件。
科研与工程产出不按热搜排期,下一波 R1 量级的讨论本来就不该默认「年年有」。但无论如何,DeepSeek 的下一步动作值得持续关注。
你怎么看 V4 传闻?最期待哪个能力突破?欢迎讨论。

