真是热闹的一周。
周一,Kimi 刚发完 Kimi K2.6;周五,万众瞩目的 DeepSeek V4 就来了。
这种感觉很熟悉。
过去一年,这两家公司不是前后脚发模型,就是前后脚发技术论文,不是你把市场热度点着了,就是我把技术讨论接过去了。
更早之前,说起中国开源模型,几乎条件反射地想到 DeepSeek。
尤其是 DeepSeek 发布 R1 之后,这家公司不仅凭一己之力改写了全球市场对中国 AI 的印象,而且唤醒了其他中国的 AI 创业团队的 " 信心 "。
于是,我们看到,更多的中国 AI 创业团队开始做出非常竞争力的模型,带来非常有影响力的技术研究成果。
2025 年 7 月,被《自然》杂志称为 " 又一个 DeepSeek 时刻 " 的 Kimi K2 模型,在底层架构上首次大规模验证了二阶优化器 Muon,同时采用了 DeepSeek 验证过的 MLA 注意力机制。
到了 2026 年 4 月,DeepSeek V4 在架构上也跟进 Kimi K2 采用 Muon 优化器,取代过去已经使用了 10 年的 Adam 优化器。
这可能是开源最大的价值:让中国公司共享技术,加速追赶美国的闭源巨头。
它们是中国目前唯二,总参数超过万亿、已权重公开的中国模型。也是最有国际影响力的中国 AI 模型代表。全球市值最高的英伟达公司在展示下一代芯片性能时,用的模型正是来自 DeepSeek 和 Kimi。

A
虽然说 DeepSeek V4 和 Kimi K2.6 在同一周发布,但其实两个模型各有技术侧重点。
V4 的核心突破在于百万上下文的成本重构,它通过全新的混合注意力机制,将单 token 推理的计算量压缩到 V3.2 的 27%,KV Cache 降至 10%。
这套方案结合了压缩稀疏注意力和重度压缩注意力,让百万级上下文从技术演示变成了可以普及的基础设施。
V4 同时针对 agent 场景做了专项优化,后训练阶段把 agent 作为独立方向单独训练,工具调用格式从 JSON 换成带特殊 token 的 XML 结构,跨轮次推理痕迹在工具调用场景下完整保留。
DeepSeek 还自建了名为 DSec 的沙箱平台,单集群可并发管理数十万个沙箱实例,用来支撑 agent 强化学习训练和评测。
K2.6 的方向则更偏向长程编码和 agent 集群。它在 Kimi Code Bench 内部评测中得分 68.2,比 K2.5 的 57.4 提升约 20%。
最高可支持 300 个子 agent 并行完成 4000 个协作步骤。

2025 年 2 月,Kimi 发布 Moonlight 系列模型,首次将二阶优化器 Muon 应用于 480 亿参数的大模型,验证了新一代优化器的效果。
2025 年 4 月,Kimi-VL 模型发布,在 Moonlight 模型的技术上,引入 MoonViT 视觉编码器,为之后的多模态理解模型打下基础。
2025 年 7 月,Kimi 首次将 Muon 优化器扩展到万亿参数的规模,推出 K2 开源模型。
2025 年 10 月,Kimi 发布 Kimi Linear,这是 Kimi 提出的一种线性注意力架构,核心目标是在保住长上下文能力的同时,把大模型处理超长文本的计算和显存成本降下来。
这说明杨植麟已经不满足于只做模型了,他想对模型的底层架构动手。
随后,Kimi 发布并开源支持图片和视频理解的万亿参数模型 Kimi K2.5。
2026 年 3 月,Kimi 发布注意力残差的论文,继续对 Transformer 的底层结构下手。
这篇论文在 X 上收获了马斯克本人的称赞。
在然后就到了前几天的 K2.6,这是一个围绕长周期编码、agent 执行、工程任务能力的模型。
从产品定位的演变可以看出,Kimi 正在从消费级对话产品往生产力工具转型。
2026 年 3 月,杨植麟在英伟达 GTC 大会上发表演讲,系统介绍 Kimi 技术路线,他用三个关键词概括 Kimi 的 Scaling 策略:Token 效率、长上下文、agent 集群。
他表示,要推动大模型智能上限的持续突破,必须对优化器、注意力机制及残差连接等底层基石进行重构。
当前的 Scaling 已经不再是单纯的资源堆砌,而是要在计算效率、长程记忆和自动化协作上同时寻找规模效应。
一家公司最怕的是,只有媒体在讨论你,开发者却不用你。
但 Kimi 不一样,无论是在 OpenRouter 上还是绝大多数 agent 工具的默认接口里, K2.5 和 K2.6 都是主流选项。
截止发稿,Kimi 和 DeepSeek 都出现在 OpenRouter 的 TOP3 模型里,在 AA 的榜单上,K2.6 甚至暂时占得先机。

这也是 Kimi 这一年最关键的变化。
它不再只是告诉用户 " 我能帮你读更长的文件 ",而是在回答更底层的问题,模型怎样才能在更长时间、更复杂任务、更高工具调用密度下保持稳定?
长上下文解决的是记忆和信息承载;线性注意力解决的是成本和扩展性;agent 集群解决的是复杂任务拆解;编程能力解决的是模型的理解和执行。
它们看起来是几条不同产品线,其实背后指向同一个方向,Kimi 想把 Kimi 从一个好用的聊天窗口,变成可以承接真实工作的基础模型。
4 月,杨植麟受邀参加总理主持的经济形势专家和企业家座谈会,作为唯一的大模型创业者代表发言。这个 1993 年出生的年轻人,成为座谈会上最年轻的参会者。
一个月前,他刚在 2026 中关村论坛年会全体会议上发表演讲,系统阐述了中国 AI 团队如何通过底层架构的 " 推倒重建 ",打破沿用十年的行业技术标准。
显然,Kimi 已经从一家创业公司,变成了代表中国 AI 技术路线的符号之一。
Kimi 这一年的成长路径,和 DeepSeek 的路径有明显差异。两家公司的技术选择不同,但也正因如此,才让中国开源模型有了更多可能性。
C
过去我们写这两家公司,容易写成 " 谁的模型好 "、" 谁才是下一个 OpenAI"。
但这其实是个误区。
DeepSeek 和 Kimi,不该被简单理解成 " 谁赢谁输 "。它们更像中国开源模型对外竞争的两条腿。不存在谁取代谁,而是应该互相刺激互相促进。
DeepSeek 和 Kimi 相继证明了一件事,做前沿模型不一定需要无限的资源,关键在于算法创新和工程优化。它们在模型算法、工程效率、开源路线和降低推理成本上的贡献,仍然是中国 AI 过去一年最重要的技术事件之一。
它们彼此竞争,但也彼此抬高了中国开源模型的上限。
真正重要的不是它们谁先到终点,而是它们把中国模型的竞争维度拆开了。
过去我们评价一家模型公司,很容易只看榜单、参数、价格、发布会声量。
但模型公司真正的护城河,已经不再是 " 模型聪不聪明 "、" 模型性能如何 " 这些事了。现在围绕模型的叙事,是它能不能形成一整套技术路线。
DeepSeek 把第一件事做得很彻底。它让外界看到,中国公司可以用更高的工程效率,把模型训练和推理成本打下来,可以把技术报告写到足够透明,可以把权重开放到足够激进。
它建立的是一种开源信任。开发者愿意研究它、复现它、部署它,是因为它不只是给了一个 API,而是把模型背后的方法论也拿了出来。
Kimi 补上的是另一块。
Kimi 最早被用户记住,是因为长文本和聊天产品,但 K2.6 之后,它讲的已经不是一个更会聊天的助手,而是模型如何进入真实工作流。
长程编码、Agent 集群、工具调用、长周期任务,这些能力没有 " 霸榜 " 那么直观,但它们决定模型能不能从 " 被试用 " 走向 " 被依赖 "。
如果说 DeepSeek 解决的是模型够不够强、够不够便宜、够不够开放的问题,Kimi 更关心的是模型能不能真的替人完成复杂任务。
所以这两家公司放在一起看,意义反而更大。
作为观察者和用户,我们肯定希望都存在,这样产业才能发展。
中国 AI 真正值得兴奋的,不是终于出了一个 DeepSeek。
而是在 DeepSeek 的带动下,Kimi 们依然能靠自己成长为一座座大山。
这说明中国 AI 公司已经开始在不同维度上找到自己的位置,不再是简单模仿,是真正的在探索自己独有的那条技术路线。
DeepSeek 和 Kimi 的技术互相赋能,也说明了一件事,开源生态的价值在于协作。
现在的问题不是 DeepSeek 和 Kimi 谁更强,而是它们能不能继续保持这种竞争关系,继续在技术上互相刺激。
中国开源模型要真正在全球站稳脚跟,需要的不是一家独大,而是多家公司在不同方向上都做到世界级水平。DeepSeek 和 Kimi 的存在,让这个可能性变得更大。