最近,本该更新 V4 版本的 DeepSeek,悄悄更新了个 " 专家模式 " 选项,与 " 快速模式 " 并列。
DeepSeekV4 从年初跳票到现在,全网都在替梁文锋着急,他却 " 稳如泰山 "。只有 " 知情人士 " 在网上透露,V4 可能在 4 月下旬正式发布,但官方并未回应。
不过,DeepSeek 这次更新的双模式也有点说法。如今的国产大模型正处在价格战死循环,梁文锋在 V4 更新前推出双模式,是否是为大模型的商业化铺路呢?
DeepSeek 这次的 " 专家模式 " 很低调,不仅没宣传,甚至没有发布版本更新公告,就悄悄上线了。
表面上看,似乎只是 UI 界面的微调,在对话框上方加了两个模式切换按钮。
但实测下来,两个模式的能力的确存在差异,专家模式在逻辑性上更胜一筹,两者背后对应的技术伏笔应该比想象中更大。
具体来看,两个模式都支持图片与文件的文字识别,最多能传 50 个 100MB 的单文件。虽然都有 " 深度思考 " 按钮,但很明显快速模式更面向日常问答、基础信息查询等大多数普通用户的需求,响应速度更快;专家模式则针对复杂推理和深度任务,可能触发更长推理时间但响应慢。
据网友爆料,有用户灰度到视觉模式,开启了图像输入等多模态能力,但人数非常少。
目前,即便 V4 没出现,但双模式也让网友们炸开锅,猜测这是 V4 正式发布前的预热,连普通用户都在议论,是不是大模型的 " 免费午餐 " 要到头了。

其实,大模型收费是迟早的事。
这两年,国产大模型卷得厉害。从一开始拼参数、拼榜单排名,到后来拼价格、拼免费额度,到现在陷入 " 不免费就没用户,免费就没利润 " 的死循环。
众所周知,大模型很烧钱,千亿参数的模型训练,要烧海量算力和资金;日常推理服务,每一次用户对话,都在产生实打实的成本。
拿 DeepSeek 来说,即便不提刚爆红时的容量不足,单就 2026 年开年以来,公开信息便已记录了它 4 次大规模服务中断。其中,3 月 29 日的 12 小时大崩溃,更登上各大社交平台热搜。
不难看出,卷免费的结果,就是企业利润持续崩盘,没有多余的资金投入技术迭代,模型能力迟迟无法突破。
想打破这个循环?难。因为用户们已经养成免费的心智,你收费我就用别家,所以没一个厂商敢率先收费。整个行业也被困在一边赔本赚吆喝,一边焦虑找变现的怪圈。

此前," 满血 " 一直是众多大模型的卖点。虽然性能够足,但有个弊端,就是不论问题简单还是复杂,吃的同一份算力。而普通用户大多都是轻量需求,根本用不上千亿参数模型的能力。
双模式则解决了这个矛盾,把用户和成本进行双向分层。
快速模式,已能满足大多数用户的日常需求,响应快、功能全,而且成本可控,完全可以长期保持免费,守住用户基本盘。
对模型能力有高要求的专业用户,专家模式则提供满血的深度思考能力。而这部分用户,才是付费意愿较强的商业化核心群体。
此后,快速模式走轻量赛道,专家模式走重型赛道。用户自己就能分流。
这里大家就明白,为什么全网都在盼着 DeepSeekV4 更新,梁文锋却要先放双模式出来了。答案就是想分流。
前段时间,海外巨头 Anthropic" 封杀 " 龙虾,OpenAI 下线 Sora,也是同理。巨头想把有限的算力资源重新聚焦,因为它们的基础设施扩展也难以应对暴增的需求。
DeepSeek 没有喊 " 永久免费 " 的口号,也不硬推付费惹用户反感,先把用户分层。第一次把算力调度搬到了用户界面上,让不同需求的人,用不同的模型,花不同的成本。
从这个角度看,分层直接把行业里免费、收费二选一的棋盘活了。
这次更新里,专家模式的能力已经远超 V3.2,藏在代码里的视觉模式,明摆着是 V4 的王炸。
但梁文锋就是不着急,不抢发布节点,不蹭行业热度,先把分层模式放出来,打磨产品体验,测试市场反馈,把商业化的底层逻辑跑通,再把真正的大招放出来。
他曾说过,中国 AI 和美国真实的 gap,是原创和模仿的差距,大部分中国公司习惯 follow,而不是创新。
当下,不少厂商都在摸着 OpenAI 过河,卷免费、抢发布、拼热度。梁文锋虽然在 V4 上多次跳票,但慢一点或许是因为他跳出了模仿的陷阱,想清楚 DeepSeek 接下来到底要走怎样的路。

用户真正需要的,是能解决实际问题的产品;而行业需要的,是能健康走下去的商业化路径。
不得不说,本次 DeepSeek 的双模式,走得相当聪明。
全网都在等 V4,梁文锋要等的或许都不是一个合适的发布时机,而是一个能让 DeepSeek 真正站稳脚跟的、健康的产品生态和商业路径。
至于 V4 到底什么时候来?别急,该来的时候,自然就来了。