DeepSeek 网页端大升级实测:快速模式 vs 专家模式,V4 真的不远了

DeepSeek 网页端悄悄上线了大更新——没有发布会,没有 blog,甚至没有一条官方推文。输入框上方多了两个图标:一个闪电:high_voltage:,一个钻石:gem_stone:,分别对应「快速模式」和「专家模式」。

两种模式的区别

维度 快速模式 :high_voltage: 专家模式 :gem_stone:
定位 适合日常对话,即时响应 擅长复杂问题,高峰需等待
背后模型 大概率是 V4 Lite 轻量版 疑似路由到更大更强的模型
多模态 :white_check_mark: 支持图片和文件识别 :cross_mark: 暂不支持文件上传
速度 较慢,高峰期需排队

一个反直觉的点:更强的模型反而功能更少?这说明专家模式可能还在灰度阶段,功能尚未完全打开。


实测对比

物理仿真:p5.js 弹跳球

让两个模式各写一个 p5.js 程序,模拟球在旋转六边形内弹跳(受重力和摩擦力影响):

p5.js物理仿真对比

结果:专家模式给出的结果更符合物理直觉,落点更准,弹跳轨迹更真实。快速模式肉眼可见差了一个档次。

物理仿真对数学推理能力要求高,弱一点的模型容易出现「看起来像物理但实际上不对」的结果。

游戏开发:太空侵略者

游戏对比

但网友 @AiBattle_ 的太空侵略者游戏测试中,专家模式和快速模式差距并不明显。

创意写作:「替无聊辩护」

辩论题:「论证无聊是现代人的奢侈品」。专家模式输出更长、逻辑链更完整;快速模式文风相对自然朴实。有意思的是,在创意写作任务上两者速度差距不大——创意写作对模型规模的敏感度远低于数学推理。

数学逻辑:绳子绕地球

「绳子绕地球一圈,加长 1 米均匀撑开,缝隙多高?」两个模式答案相同,但专家模式一步步拆解推导,快速模式则很简略。

小结

简单任务,两个模式差异有限;越是需要深度推理的场景,专家模式优势越明显。


Vision 模式:第三个选项正在路上?

此前爆料显示,还有第三个选项「Vision 模式」正在准备中。

关注 DeepSeek 技术路线的博主 Teortaxes 认为:把 Vision 单独列为一个模式很不寻常。DeepSeek 此前拒绝在网页端部署 DS-VL 系列,原因是「尚未成熟」。如果 Vision 模式真的上线,背后可能已经是一个完全功能化的 VLM,甚至可能是 Janus 系列的下一步演化。

不过也有网友指出,前端代码逆向显示 Vision 模式并没有独立模型,只是在快速模式下加了一个 filefeature.vision = true 参数。


更深层的信号:产品分层

这次更新背后有一个更值得关注的方向:DeepSeek 开始做产品分层了

自去年爆火以来,DeepSeek 一直高度「反商业」——API 定价极低,网页端完全免费,功能无门槛区分。但「全免费、无分层」的运营方式长期不可持续。

现在,DeepSeek 把「更强的模型」和「更基础的模型」做成两个入口,这个架构一旦搭好,后续做付费体系在技术上已不是问题。

当然分层未必只为收费——把请求分流到不同模型本身就是算力调度策略,缓解峰值压力。

整件事拼起来看,是一个完整的铺垫路径:

灰度分层入口 → 让用户感知差异 → 打通多模态 → Vision 模式开闸 → 限额/定价

晚点 LatePost 报道,V4 正式版预计今年 4 月亮相,大概率仍是开源最强,但「很难是碾压级的强」。

DeepSeek 搅动了整个 AI 圈,但现实也终将搅动 DeepSeek。

用下来感觉专家模式确实强一点

更新得还挺低调嘛

专家模式在物理仿真和数学推导上优势明显 产品分层这一步确实聪明 能缓解算力压力 也为后续功能拓展留了空间

还是分得越细越放心

这个更新挺低调的

感觉日常用快速就够了

感觉专家模式确实更强一些