
20 万 token 上下文窗口,输入输出全免费。这两个数字放在当前市场什么概念?Claude 3.7 Sonnet 的 20 万窗口要按量付费,GPT-4o 的同级别上下文是 12.8 万。智谱这次把成本直接压到零,相当于在别人的收费停车场门口挂了个 " 免费停车 " 的牌子。
配置方法已经流出。Claude Code 用户需要手动改 settings.json,把环境变量指向 GLM-5.1;OpenClaw 用户更麻烦些,要在 providers.zai.models 数组里追加配置对象,再改默认模型指向。IT 之家把步骤拆解到了命令行级别,Mac 用户记得 vim 后加 ":wq" 保存——这种细节说明文档是工程师自己写的,没经过市场部润色。
为什么版本号从 5 跳到 5.1,却值得专门发一版?
看配置参数就懂了。GLM-5.1 的 contextWindow 维持在 204800(20 万 token),maxTokens(最大输出长度)131072,和 GLM-5 完全一致。但 reasoning 字段保持 true,说明推理能力没缩水。真正的升级藏在调用策略里:Coding Plan 用户之前用 GLM-5 可能有隐性配额或速率限制,5.1 版本明确 " 所有档位均可调用 ",等于把权限边界彻底打开。
有个细节很有意思。配置示例里 GLM-5.1 的 cost 对象,input/output/cacheRead/cacheWrite 四项全部标 0。这不是 " 暂未定价 " 的占位符,而是实打实的免费策略。对比 OpenAI 的 o1-pro 每百万输入 token 收 15 美元,智谱这招相当于在代码生成赛道直接掀桌。
但免费也有代价。目前 GLM-5.1 只开放给 Coding Plan 订阅用户,不是全民公测。这个 Plan 的定价体系里,Lite 档最便宜,Max 档最贵,三档共享同一套模型权限。换句话说,智谱在用模型能力做订阅分层,而不是按调用量计费——这和主流云厂商的商业模式完全相反。
Claude Code 和 OpenClaw 的适配,暴露了智谱的野心
两个配置路径值得玩味。Claude Code 是 Anthropic 官方推出的 CLI 工具,OpenClaw 是开源的 Claude 替代客户端。智谱同时支持两者,意味着不想被锁死在任何单一生态里。更微妙的是环境变量命名:ANTHROPIC_DEFAULT_SONNET_MODEL、ANTHROPIC_DEFAULT_OPUS_MODEL,直接复用了 Anthropic 的模型等级体系。GLM-5.1 对标的是 Claude 的 Sonnet/Opus 档位,而不是自家的数字序列。
这种 " 借壳上市 " 的策略很聪明。开发者不用重新学习模型能力图谱,看到 "Opus 级别 " 就知道是旗舰性能。但风险也在这里:如果 GLM-5.1 的实际表现配不上 Sonnet/Opus 的期待,口碑反噬会比独立命名更猛烈。
OpenClaw 的配置更暴露技术细节。contextWindow 204800 是硬编码的静态值,不是动态伸缩。这意味着长文本处理时,系统会一次性加载 20 万 token 的上下文窗口,哪怕实际对话只有 2000token。对本地内存和带宽都是考验,但换来了确定性——不会出现 " 聊着聊着窗口被截断 " 的意外。
零成本背后的算盘: Coding Plan 到底在卖什么?
所有模型调用免费,那 Coding Plan 的订阅费买什么?目前能看到的是速率保障、优先排队、以及可能的专属功能解锁。这和 GitHub Copilot 的商业模式类似:模型推理成本被摊进月费,用户感知不到单次调用的价格波动。
但智谱走得更远。GLM-5.1 的免费不是限时促销,是写入配置文件的永久 cost: 0。这意味着一旦用户习惯养成,后续提价的空间被锁死。除非——除非 5.1 只是过渡版本,真正的收费模型叫 GLM-5.5 或者 GLM-6。
一个反常识的数据点:GLM-5.1 的 maxTokens 131072,换算成中文大约是 9 万字输出。足够一次性生成完整的技术文档、中型项目的代码骨架、或者长篇报告。之前的模型往往在 2-4 万字处截断,需要用户手动 " 继续生成 "。这个提升对自动化工作流的意义,比跑分高 5% 实在得多。
配置教程里的 "Mac 用户记得 :wq",说明了什么?
IT 之家的文档里混着 vim 操作提示,这种颗粒度的说明通常来自社区贡献或官方技术支持的直接搬运。侧面印证 GLM-5.1 的发布节奏确实仓促,没来得及做包装级的用户引导。好处是信息保真,坏处是门槛过高——非技术背景的订阅用户可能根本找不到 settings.json 在哪。
这也解释了为什么限定 Coding Plan 用户。能自己改 JSON 配置的人,大概率是目标客群里的高活跃用户,反馈质量和容忍度都更高。等这批人跑通流程、产出案例,再开放给更广泛的用户层,是更稳妥的 rollout 策略。
目前社区里已经有人在测试 GLM-5.1 的长文本稳定性。20 万窗口处理代码库时,能否保持上下文一致性,是比跑分更关键的验收标准。有用户反馈说,在处理超过 15 万 token 的遗留项目时,模型对跨文件依赖关系的理解 " 比 GLM-5 少了些幻觉 ",但具体数据还在收集中。
智谱没公布 GLM-5.1 的技术白皮书,也没有基准测试分数。这种 " 先上线、后解释 " 的做法,在国产大模型里越来越常见。好处是抢占用户心智,坏处是专业开发者会持币观望——毕竟谁也不想基于一个黑箱做架构决策。
但免费本身就是最强的信号。当竞争对手还在按 token 计费时,智谱选择用订阅制换生态位。这个赌局的关键在于:Coding Plan 的用户增长,能否覆盖模型推理的边际成本?以及,当用户习惯了 20 万窗口 + 零调用费,还能不能接受回退到付费模式?
GLM-5.1 的配置文件里,model ID 写的是 "glm-5.1",但 name 字段是 "GLM-5.1"。大小写不一致这种细节,通常不会出现在成熟产品的发布流程里。是赶工痕迹,还是故意为之?