《科创板日报》4 月 24 日讯(记者 王耐)字节跳动火山引擎方舟 Coding Plan 近日正式上线 GLM-5.1,官方表示 " 对齐原厂满血能力,不限购 "。在此之前,火山的 Coding Plan 长期仅有 GLM-4.7 等较老模型。此次更新不仅引入了 GLM-5.1,同时集成了 Minimax M2.7、Kimi k2.6、DeepSeek-V3.2 等多款最新国产大模型。

智谱 GLM-5.1 本身在 2026 年 4 月初的一次更新中,已经展现出令人印象深刻的工程能力。在智谱发布的两个官方视频中,"8 小时从零构建 Linux 桌面 "、"655 轮迭代,将向量数据库的查询吞吐提升到初始正式版本的 6.9 倍 ",重新刷新了大众对于大模型 "8 小时有效执行 " 的想象。
记者实探开发者社区 多数用户表示 " 不耐用 "
记者进入一个方舟 Coding 开发者交流群中,发现用户在分享体验感受的帖子之外,大量用户反馈了实际体验的落差。刷几页交流社区就会发现,投诉、申请售后退钱的帖子非常多,有不少网友直呼 " 感觉被骗 "。

一个是关于限额使用过快的问题。一位名为 " 哈基米 " 的用户发帖称 " 一个任务几轮对话 5 小时限制就快用完了 ",还有另一位网友发布了自己 "5 小时限额触发的原因 " 是因为账号在连续 5 小时内连续滑动窗口,实际请求数已超过 6004 次,超过了系统限额。

与此同时,在 Coding Plan 每月 40 元的低价背后,也隐藏着套餐内关于 " 一次调用请求 " 引向不同抵扣系数的 " 暗流 "。比如一位用户在开发者交流群发布了 " 调用不同模型抵扣系数差异 " 的图片。比如豆包全系列、Qwen 系列抵扣系数是 1 次,DeepSeek 系列是 2 次,MiniMax-M2.7、Kimi-K2.6、GLM-5.1 系列是 5 次。

云厂商集体转向 " 模型超市 " 分层固化初现
火山引擎 Coding Plan 的这次 " 整合式 " 更新,也并非孤立事件。
自 2026 年初以来,阿里云、百度智能云、腾讯云等主流云厂商均在推进多模型整合布局。 比如阿里云作为行业先行者,较早推出多模型订阅套餐 " 百炼 Coding Plan"。目前支持千问系列和 kimi-k2.5、glm-5、MiniMax-M2.5 等模型。目前 Pro 价格为每月 200 元,Lite 套餐自 3 月 20 日起已停止新购,4 月 13 日起停止续费与升级。

" 模型超市 " 模式,并非一家之选,而正在成为云厂商竞相布局的赛道。但撕开云厂商聚合策略的外衣,谁能提供更稳定的服务、更透明的额度规则、更灵活的容灾机制,谁能在编程之外,延展出更多企业级服务能力,续费率能不能跟得上,都成为新的竞争核心。
国际上,亚马逊 Bedrock、微软 Azure 的模型聚合服务平台,与国内 Coding 订阅模式场景不同,但同属整合趋势。

国信证券首席资产配置分析师王开告诉记者,虽然行业分化在加速,但整合期的判断可能为时稍早。" 更准确地说,这是产业链分工的细化和迭代。模型厂商聚焦算法,云厂商聚焦工程交付,各自发挥主业优势。" 他认为,无论其他云厂商是否跟进,竞争格局都将从单打独斗向生态位分化演变。
大模型公司 " 管道化 " 压力加剧?
所谓 " 管道化 ",并非指模型公司消失,而是指其丧失产品溢价、用户连接权与话语权,利润向算力平台方转移,成为 " 被支配 " 的角色。
云厂商的聚合浪潮之下," 管道化 " 也正在成为悬在独立大模型公司头顶的达摩克利斯之剑。这场无声的博弈中,智谱 AI、月之暗面(Kimi)、MiniMax 等头部玩家,并未选择被动妥协,而是从基因中各自生长,给出了不同的突围路径。
智谱 AI CEO 张鹏在 4 月 8 日的公开对话中,他明确表示,智谱的终极目标从来不是成为一款 " 可被随意替换的调用工具 ",而是构建全自治智能体(Autonomous Agent)。这一定位试图让智谱从 " 模型供应商 " 升级为 " 任务执行者 ",从而绕过纯 API 管道的低价陷阱。
月之暗面(Kimi)则采取 " 分散布局 + 深耕长文本 " 的策略。同步接入火山引擎、阿里云等多家主流云平台,实现算力多源供给、不被单一渠道绑定,保障服务稳定性与成本可控。2026 年 4 月推出的 Kimi K2.6 采用混合专家(MoE)架构,标准上下文窗口达 256K tokens。
MiniMax 则将将核心资源投入到内容创作、智能客服、教育、企业服务、娱乐社交等垂直领域,尤其在游戏 AI、数字人、多模态交互等场景重点布局,打造 " 云平台难以替代的定制化能力 "。

" 短期看,分发渠道被平台掌控、定价权部分让渡,模型厂商利润向入口方转移是商业规律。但长期而言,通用模型易同质化,金融、医疗、法律等垂直场景的深度学习模型,专业壁垒不是集中聚合就能抹平的。"他认为。
在应对被平台化风险方面,还可以参考 OpenAI 和 Anthropic 的策略,一方面强化直面终端用户的渠道,比如 ChatGPT 与 Claude 的独立运营本质是在建立绕过平台的用户连接。另一方面技术迭代速度与用户品牌认知是两条有效护城河,因此模型公司需要兼顾研发投入与产品化布局。
这场 " 管道化与平台化 " 的博弈终局,可能不是谁吃掉谁,而是分工的进一步清晰。云厂商做管道,模型公司做技术,双方在博弈中逐渐找到各自的生存边界。
至于谁吃掉谁,在目前这个阶段,还远未到故事的结局。