关于ZAKER Skills 合作
大众日报 7小时前

不“画饼”的 DeepSeek, 用 2 分钱改写 AI 玩法

百万 Token(词元),相当于一个中型公司的全部代码库。如今,DeepSeek 把处理这么多信息的成本,变成了 2 分钱。

4 月 24 日,DeepSeek-V4 系列预览版发布,同步开源 V4-Pro 与 V4-Flash 两款模型,标配百万 Token 超长上下文。但更令行业在意的,是随后 25 日与 26 日的连环降价:先是 V4-Pro 限时 2.5 折,再是全系 API 输入缓存命中价格永久降至首发价的十分之一。两次调价之后,V4-Flash 每百万上下文输入缓存命中价格仅 0.02 元,V4-Pro 为 0.025 元——全球大模型价格的新谷底,被重新定义。

这不仅是一次简单的版本迭代,更不是随意打响的 " 价格战 "。它意味着,一家中国 AI 公司,正在用技术提升效率、用开源重塑规则、用国产算力构建独立生态。

当处理百万 Token 的成本被压缩到可以忽略不计,其带来的连锁反应,就是从芯片到应用的全产业链,都将被重新定义价值。

坦承 " 打不过 ":

比肩顶级的自信与清醒

DeepSeek-V4 的模型分为 V4-Pro 和 V4-Flash 两个版本,可以理解为 Pro 是专家模式,Flash 是快速模式。

DeepSeek 官方发布的技术报告显示,V4-Pro 的 Agent 能力大幅提高,拥有丰富的世界知识和世界顶级推理性能,性能比肩顶级闭源模型。

值得注意的是,在技术报告中,DeepSeek 罕见地给出了精确且坦诚的自我评价:V4-Pro 使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6 思考模式存在一定差距。

翻译过来就是:我们的模型比对手的中端产品好用,接近对手不开思考模式的高端产品,但打不过对手最强产品的最强模式。

承认自己不如对手,在商业上是一件需要勇气的事,但更是一种比肩顶级的自信与清醒。

在 AI 这个技术爆炸的领域,Anthropic 的 Opus、OpenAI 的 GPT、Google 的 Gemini 都在进化。DeepSeek 作为追赶者或并跑者,存在差距是正常的。但当一个中国开源模型愿意公开、精确、平和地谈论这个差距,这种态度传递出三个信号:对自己技术的自信,对用户智商的尊重,以及坚守长期主义的定力。

这不是 " 挑战者 " 的姿态,而是 " 竞争者 " 的自觉。在热衷于 " 讲故事 "" 画饼 " 的全球 AI 市场,这种坦诚,本身就是核心竞争力。

" 白菜价 " 背后:

技术与电力构筑的护城河

承认 " 打不过 " 业内顶尖高手的 DeepSeek,又凭什么把价格 " 打 " 到全球最低?

答案不在资本烧钱补贴,而在底层架构的创新。

传统模型处理长上下文时,计算量会呈爆炸式增长。而 V4 开创了一种全新的注意力机制,通过 Token 压缩结合 DSA 稀疏注意力,花更少的算力和显存,实现了全球领先的长上下文能力。

DeepSeek 的技术报告给出了这次架构改动的幅度:与上一代 V3.2 相比,在百万 Token 上下文场景下,V4-Pro 的推理计算量只需 27%,KV 缓存只需 10%;V4-Flash 的推理计算量降至 10%,KV 缓存降至 7%。

通俗地说,过去跑一条百万字上下文需要 3 台机器的算力,现在一台机器就能从容应对,内存开销仅是过去的 1/10。

效率飞跃的核心,是 DeepSeek 技术报告中披露的 " 混合注意力架构 "。简单来说,这套机制就像读长篇小说时,既关注段落细节,又把握全书脉络,同时还记着刚刚翻过的几页。三者配合,既省力,又不漏重点。

技术创新提高效率,效率提升兑现成本——这是 DeepSeek 敢于连续降价的底气。

仅有算法还不够。就像自来水公司不仅要有净化技术,还要有遍布全城的水管网络。AI 算力是典型的耗电大户,训练和推理需要大量电力持续供应。中国庞大而稳定的供电网络,构成了 AI 产业背后最坚实的 " 护城河 "。

当前的美国 AI 浪潮,正走向不可逆转的精英化与贵族化,算力正成为少数人才能消费的数字特权。而中国选择了另一条道路:开源、低价,让最先进的 AI 能力像水电一样便宜、可靠,让普通老百姓也用得起。

摆脱依赖:

" 科技平权 " 的中国式回答

在 DeepSeek 公告价格表中,还有一行不易被注意到的灰色小字:受限于高端算力,目前 Pro 的服务吞吐十分有限,预计下半年昇腾 950 超节点批量上市后,Pro 的价格会大幅下调。

这条备注的含金量,并不亚于模型本身。

为什么昇腾 950 超节点能把价格 " 打下来 "?答案藏在 DeepSeek 的技术报告里——华为昇腾 NPU 与英伟达 GPU 被写进了同一份硬件验证清单:" 我们在英伟达 GPU 和华为昇腾 NPU 两个平台上均验证了细粒度 EP(专家并行)方案,在通用推理任务中实现 1.50 至 1.73 倍加速;在延迟敏感场景下最高达到 1.96 倍。"

这是万亿参数级别的模型,首次在正式文档中完成了对国产 AI 芯片的 " 官方认定 " 。

昇腾 950 超节点通过架构升级实现高吞吐、低时延推理,让昇腾芯片能以极低成本支撑长上下文大模型商用。目前,至少 8 家国产 AI 芯片厂商 " 发布即适配 "DeepSeek-V4,证明国产算力足以承载万亿参数商业运行。

这背后的逻辑,远比降价更为深远。" 顶尖算法 + 自主芯片 ",中国 AI 产业正在构建一个摆脱单一硬件依赖的自主路径。DeepSeek 已经证明了前半程,华为昇腾则负责完成后半程的产能与规模化。

在发布公告末尾,DeepSeek 援引《荀子 · 非十二子》中的一句话回应当下处境:" 不诱于誉,不恐于诽,率道而行,端然正己。"

当行业狂飙突进、资本喧嚣不止,一家中国 AI 公司用 0.02 元的价格,为 " 科技平权 " 写下了一个中国式的回答。

(本文引用数据均来自 DeepSeek 技术报告及官方定价页面)

(大众新闻记者 黄露玲)

相关标签

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容