2026 年 4 月,DeepSeek V4 与 Kimi K2.6 两款国产 AI 大模型相继发布,在性能、架构与场景能力上实现显著跃升,同时推动国产算力适配进入双向协同新阶段。
DeepSeek V4 于 4 月 24 日推出,包含 V4-Pro 与 V4-Flash 两个版本,均支持1M tokens超长上下文,依托 CSA/HCA 混合注意力、KV cache 压缩、FP4 量化等技术,大幅降低长上下文推理成本。其中百万 token 场景下,V4-Pro 单 token 推理算力降至前代的 27%,KV cache 占用仅 10%,V4-Flash 进一步压缩至 10% 与 7%,在 Agent 能力、世界知识与推理性能上处于国内及开源领域领先水平,核心优势聚焦超长文档处理、代码库理解与低成本大规模推理。
Kimi K2.6 于 4 月 20 日发布,上下文长度为 256K,主打长程代码任务与Agent Swarm智能体集群编排能力,可动态拆解复杂任务,支持 300 个子 Agent、4000 步协同执行,能完成 12 小时以上连续推理与多轮迭代任务,在代码生成、多模态输入与自主 Agent 执行场景表现突出,更适配工程化、长流程的复杂工作流。
两款模型发布后,第一时间完成与华为昇腾、寒武纪、壁仞科技等国产 AI 芯片的适配,标志着国产 AI 产业从芯片单向适配模型,转向 " 国产算力 + 国产模型 " 双向协同的自主可控建设模式。国产芯片厂商通过算子优化、软硬件协同、低精度计算等技术,保障模型高效稳定运行,其中昇腾 950 超节点、寒武纪思元芯片、壁仞壁砺 166 系列均实现对两款模型的高效推理支持。
随着模型性能提升与推理成本下降,行业 Token 调用需求快速增长,测算显示相关推理需求将带动 AI 加速卡、CPU 与超节点的新增采购需求,同时为算力租赁、IDC 与算力调度领域带来增量空间。整体来看,两款模型的技术突破与国产算力的快速适配,推动国产 AI 大模型进入高效化、场景化、自主化的发展新阶段。