关于ZAKER 合作
钛媒体 4小时前

DeepSeek 杀出一条血路:国产大模型突围不靠运气!

文 | 高恒商业说,作者 | 高恒

进入 2025 年末,全球大模型赛道的技术焦点几乎被 Google 重新夺回。Gemini 3 Pro 横空出世,在多个权威基准上超越所有开源模型,重新确立了闭源阵营的技术高地。一时间,业内关于 " 开源模型是否已到极限 ""Scaling Law 是否真的撞墙 " 的质疑声再起,一股迟滞情绪在开源社区弥漫。

但就在此时,DeepSeek 没有选择沉默。12 月 1 日,它一口气发布了两款重磅模型:推理性能对标 GPT-5 的 DeepSeek-V3.2,以及在数学、逻辑和多轮工具调用中表现异常强势的 Speciale 版本。这不仅是对技术能力的集中展示,也是在当前算力资源并不占优的前提下,对闭源 " 新天花板 " 的正面回应。

这不是一次简单的模型更新。DeepSeek 试图在后 Scaling 时代找出一条全新路径:如何用架构重塑弥补预训练差距?如何通过 " 工具使用中的思考链 " 实现低 token 高效率的智能体表现?更关键的是,Agent 为何从附属功能变成了模型能力跃迁的核心引擎?

本文将围绕这三条主线展开分析:DeepSeek 是如何在技术瓶颈下突破的?为何率先在开源阵营中重注 Agent?而这是否意味着,开源模型仍有穿透闭源护城河的那条路?

一、从落后到并跑,DeepSeek 靠什么杀入第一梯队

在顶级 AI 模型的竞技场中,开源选手一直被认为只能 " 追平 ",难以真正 " 对抗 "。但这一次,DeepSeek-V3.2 交出的成绩单,已不再是追赶者的姿态。

根据 DeepSeek 官方公布的数据,V3.2 在公开的推理类基准测试中,已全面对标 GPT-5,仅略低于 Gemini 3 Pro。在多个关键评估中,它不仅稳定胜出 Kimi-K2-Thinking,还成功刷新了国内开源模型在推理能力上的最高纪录。在数学、逻辑、复杂问答等任务中,DeepSeek-V3.2 的表现接近闭源领先模型,已足以跻身 " 全球第二梯队 " 的头部。

这背后的关键,并非大模型 " 继续放大 " 就能解释。DeepSeek 的突破,核心在于对底层架构的重塑,尤其是稀疏注意力机制(DSA)的引入。传统 Transformer 架构中,注意力机制对每一个 token 都要计算与前序所有 token 之间的关系,其计算复杂度呈平方级增长,成为大模型推理中的主要成本瓶颈。

而 DSA 所引入的 " 闪电索引器 "(Lightning Indexer),则相当于在这场计算中装上了一套 " 快速预判器 " ——它不再对所有 token 做全量注意力分配,而是通过极少量、低精度的索引头(可在 FP8 上运行)快速筛出最关键的 token 对,只对这些核心位置进行精算。这样的设计,使得模型的核心注意力机制从平方级复杂度降至近线性,即便在 128K 这样的超长上下文输入中,也能保持相对稳定的计算负担。

值得注意的是,DeepSeek 在引入 DSA 时并未选择激进替换,而是采取了 " 密集预热—稀疏过渡 " 的双阶段训练策略。在模型预训练的早期阶段,保留原始注意力结构,仅训练索引器模仿原始分布;而后再在后训练阶段逐步替换为稀疏结构,实现无中断切换。这种 " 架构渐变式演进 ",让 V3.2 在长上下文推理中不仅效率提升,精度也未受损。Fiction.liveBench、AA-LCR 等长文本任务测试显示,V3.2 在信息召回、上下文一致性和压缩表达能力方面的得分均有显著上升。

但更具行业价值的突破,并不止于此。DeepSeek 在 V3.2 中首次提出 "Thinking in Tool-Use" 的工具使用范式,将模型的执行链条从 " 思考→调用工具→结束 " 改造为 " 思考→调用→继续思考→再调用 " 的交错逻辑。这种机制与近年来 Agent 领域提出的 "Interleaved Thinking" 方向高度一致,不仅提升了工具调用的逻辑持续性,也让模型能够在一次任务中反复复用推理中间状态。

这种能力,在真实的 Agent 场景中尤为关键。现实任务往往并非一步到位,而是需要多轮信息获取、验证与策略修正。如果每次调用工具都让模型 " 失忆 " 一次,就意味着它必须不断从头再推一次。而 V3.2 的做法,是明确将 " 推理轨迹 " 保留为上下文中的一部分,在工具返回新信息后,接续原思考路径继续向下延伸。这样的机制不仅减少了重复 token 生成,也大幅降低了因状态漂移造成的逻辑中断。

归根结底,DeepSeek 的这轮技术跃迁,并非靠更大的 FLOPs 堆出来,而是靠 " 更聪明地用算力 "。DSA 让计算分配更有效,交错思维让工具调用更稳定,两个维度共同指向一个目标:让模型真正成为一个 " 可持续思考的智能体 ",而不仅是一个大号的语言补全器。

这也意味着,在规模红利见顶之后,未来模型的竞争焦点,将逐步从 " 参数多少 " 回归到 " 思维组织力 " 与 " 能效比 "。而 V3.2,恰好是这一转向的早期注脚。

二、押注 Agent,不是跟风,而是战略拐点

相比模型性能上的技术突破,DeepSeek-V3.2 在战略路径上的最大变化,是它将 "Agent 能力 " 与 " 推理能力 " 并列,明确写入技术文档的核心指标。这是过去国内开源模型几乎未曾公开强调过的方向调整。在 DeepSeek 看来,Agent 不再是工具调用的附属模块,而是模型能力释放与产业落地之间的桥梁,甚至是未来大模型平台化的前哨站。

这种判断并非脱离现实的技术浪漫。过去一年,大模型行业经历了一个重要转向:企业开始意识到," 更聪明的聊天机器人 " 带来的边际价值正在减退,真正具备 " 动作能力 " 的 Agent,才是有望形成商业闭环的核心角色。从自动写报告、自动生成报表,到批量工单处理与代码修复,企业愿意为这些 " 可执行 " 的智能体付费,而不是为一句更像人类的话语买单。

这也解释了为何 DeepSeek 在 V3.2 后训练阶段投入大量资源打造 Agent 训练体系,并自建了一套规模化的任务生成流水线。据官方披露,团队为此合成了超过 1800 个智能体环境,并围绕 Agent 任务设计了约 85,000 条高复杂度任务提示。这些任务并非来源于人工标注,而是通过环境构建器与轨迹评分机制自动生成,并借助强化学习形成闭环训练。

这种做法跳出了传统预训练依赖海量对话语料的思路。相比之下,Agent 任务轨迹具备更强的结构性、验证性和稀缺性。一旦构建完成,训练效果将远优于常规 " 对话式补全 "。更关键的是,强化学习机制使得模型能力可以不断通过反馈回路优化,而不再受限于预训练阶段的单向迭代。

DeepSeek 在训练中采用了自研的 GRPO(Group Relative Policy Optimization)策略,并对其进行了深度本地化适配,以适应大规模多轮任务训练。在这一过程中,模型不仅需要优化单轮产出的合理性,更要平衡多轮任务中的推理一致性与语言表达稳定性。为避免传统 RL 中 " 灾难性遗忘 " 的问题,DeepSeek 将推理奖励、语言一致性得分与任务完成度打分整合为多维奖励信号,使得模型在训练中持续保持 Agent 执行链的完整性。

而要支撑这一复杂的训练机制,模型自身的 " 状态感知能力 " 也必须同步升级。V3.2 在架构中引入了完整的上下文管理策略:模型只会在用户发出新消息时重置思考状态,而在连续的工具调用过程中,其推理轨迹将被完整保留。这意味着模型可以持续积累 " 思维残留 ",在工具返回新信息后继续推理而非重启逻辑。这种 " 状态延续机制 " 成为 Agent 多轮行为连续性的重要保障,也使得模型能胜任更复杂、跨阶段的任务拆解。

从系统逻辑上看,DeepSeek 对 Agent 的理解已从 " 任务执行插件 " 上升到了 " 模型操作系统 " 的组成部分。它不是一个外挂,而是模型核心运行结构的一部分。这种系统观的转变,意味着未来大模型平台的形态将趋近于一个调度操作系统:模型本身是 OS 内核,Agent 是用户态的执行程序,插件工具则成为可调用模块。谁掌握了 Agent 层的标准,谁就可能在 AI 时代掌控平台话语权。

这也是为何 DeepSeek 试图主导 " 交错式思维 + 工具使用 " 的统一范式,并提出 "Thinking in Tool-Use" 这样的底层设计语言。这不仅是技术细节的不同,更是一种平台思维的显现。

对行业而言,DeepSeek 的这一轮转向标志着一个新的分水岭:Agent 能力不再是工程团队 " 可做可不做 " 的附加选项,而是模型构建路径中的核心分支。是否具备平台级 Agent 能力,已经成为衡量模型中长期竞争力的关键指标之一。

三、开源模型的极限在哪里?DeepSeek 的 " 后训练战术 " 试图给出答案

尽管 V3.2 和 Speciale 在多个基准上实现了开源 " 从追赶到并跑 " 的逆转,但 DeepSeek 在技术报告中也坦言:开源模型与闭源系统之间的差距,仍在某些关键维度上被进一步拉大。尤其是在知识广度、极复杂任务处理能力以及 token 生成效率上,开源体系仍受限于资源、数据与预算。

DeepSeek 选择并不掩饰这些局限,而是以极具可执行性的策略给出了回应:如果资源拼不过,就从方法入手,把训练过程 " 做深 "。

这一策略的核心,是其独有的 " 后训练三件套 ":专家蒸馏 + 多轨强化学习 + 工具思维机制融合。

首先,是专家蒸馏(Expert Distillation)。在大多数模型仍以通用数据混合训练为主时,DeepSeek 为 V3.2 量身打造了六类专家模型,覆盖数学、编程、逻辑推理、通用 Agent、Agent 编程和 Agent 搜索等核心能力域。每一类任务均有一组专属模型,在自有数据集和生成轨迹中强化单一技能。这些专家并不直接部署,而是用来生成高质量训练样本,反哺主模型。

随后,这些 " 任务专精模型 " 产出的数据,会被统一用于训练一个通用模型。在技术上,这相当于用多个极致偏科的 " 学霸 " 反向喂养一个全面发展的 " 全才 ",既避免了多任务训练中的能力稀释,又保留了不同任务之间的结构联通性。

第二层,则是强化学习(RL)的扩展升级。DeepSeek 延续了 V3.2-Exp 中的 GRPO(Group Relative Policy Optimization)策略,并在数据与奖励结构上进一步升级。模型不仅要完成任务,还需同时优化语言质量、推理链逻辑合理性与对工具的自然调用能力。整个后训练阶段的算力投入,占比已超过了预训练预算的 10%,在开源模型体系中极为罕见。

更重要的是,强化学习过程中并非依赖人类评分,而是通过任务环境自带的反馈机制与 rubric 自动评分。这一设计使得模型训练不再受限于人工对齐数据,而是进入 " 结构化任务 - 自动评分 - 行为优化 " 的闭环学习路径,也因此形成了比 Chat 数据更稀缺、但更具复用性的模型能力。

第三层,是工具使用与 " 思考链 " 的融合机制。在训练初期,模型往往无法理解 " 什么时候该调用工具、何时该继续思考 ",导致推理轨迹断裂、逻辑中断。为此,DeepSeek 为 V3.2 设计了一套冷启动系统提示,在思维轨迹中自然嵌入工具调用的示例,使得模型逐步学会在多轮任务中 " 带着工具思考 ",而非 " 思考完才调用工具 "。

此外,整个上下文状态也被重新设计:工具调用不会中断思考内容,用户新输入才会触发清除。这一策略显著降低了 token 冗余,也避免了每轮任务都从头开始推理的问题。

这些技术设计看似工程化,其实都指向一个本质问题:在参数量和训练规模受限的前提下,开源模型如何提升 " 单位 token 的智能密度 "。

DeepSeek 给出的答案是,把资源尽可能压缩在 " 推理链条 " 的关键路径中,让每一轮推理都尽可能多带信息,尽可能少重复。这不是规模的胜利,而是方法的胜利。

当然,即便如此,DeepSeek 仍未完全填补开源与闭源之间的知识鸿沟。官方报告也指出,V3.2 的世界知识广度与最新闭源模型仍有差距,Speciale 模型虽然在复杂竞赛中表现突出,但 token 开销显著增加,尚不适用于泛化日用场景。

但如果说 Gemini 3 Pro 代表了闭源阵营对 " 更大、更快、更强 " 的继续探索,那么 V3.2 与 Speciale 所代表的,或许是一种 " 更轻、更稳、更聪明 " 的新路径。在行业对 Scaling Law 前景仍存争议之际,DeepSeek 正试图以更强的推理组织力、更少的资源消耗、以及更高效的训练范式,重构开源模型的竞争秩序。

相关标签
ai

最新评论

没有更多评论了

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容