关于ZAKER 合作
钛媒体 11分钟前

OpenClaw,给中国 AI 开辟了一个弯道超车的大市场

文 | 字母 AI

OpenClaw 可以说是 AI 圈里最热门的话题,一丁点风吹草动都能牵动全球所有 AI 厂商的神经。无数产品经理在 OpenClaw 上进行创意大比拼。

嗅觉灵敏的中国厂商也都纷纷开始行动,他们看到的不只是 OpenClaw 这个产品本身,而是它背后代表的整个 agent 市场。

这个市场需要云服务器、需要模型 API、需要本土化的产品、需要更低门槛的部署方案。

中国 AI 想要弯道超车,必须要在 Anthropic 和谷歌先后对其进行打压的时机,紧紧抓住这个机会。

腾讯云、阿里云上线了一键部署服务,他们想要趁着这个机会,成为 AI 圈那个卖铲子的人。

月之暗面推出了云端版的 Kimi Claw,MiniMax 也紧随其后发布了 MaxClaw,道理很简单,本土化的 OpenClaw 仍然是市场的一大空缺。

智谱和字节虽然没有在 OpenClaw 上面明确表态,但他们其实也没闲着。OpenClaw 的成功让智谱和字节对 agent 的产品更有信心。

01 月之暗面的云端 OpenClaw

在 OpenClaw 出现之前,大模型的使用主要是 " 对话式 " 的,用户问一句,模型答一句,单次调用的 token 消耗有限。

但 OpenClaw 创造了全新的 " 模型消费场景 "。

一个配置合理的 OpenClaw,每天可能向模型发起数百次甚至上千次调用,每次调用还要携带完整的上下文信息。这意味着,单个 OpenClaw 用户产生的 token 消耗,可能是传统聊天用户的几十倍甚至上百倍。

因此,OpenClaw 变成了 OpenRouter 上 token 消耗最大的应用。哪个模型能接入 OpenClaw 生态,就等于获得了一个指数级增长的需求管道。

当 OpenClaw 用户选择底层模型时,他们实际上选的不是模型性能或者模型知识储备,用户选的是一个持续、稳定、高频的供货商。

谁耐用,谁便宜,谁才是 OpenClaw 生态下的大赢家。

所以月之暗面和 MiniMax 就在 OpenClaw 的这场巨浪之中收获颇丰。

先说说前者吧,他们在 OpenClaw 生态中的角色,经历了两个阶段的演变。

2026 年 1 月,Kimi K2.5 因其便宜且 agent 能力较强,成为 OpenRouter 平台上 OpenClaw 调用量最高的模型。

OpenRouter 数据显示,Kimi K2.5 的周 token 使用量环比增长最高达 261%。其调用场景主要来自 OpenClaw.

究其原因,Kimi K2.5 支持最多 100 个子 agent 并行执行、1500 次以上的工具调用,这些能力让它在 agent 场景下表现出色。

于是 OpenClaw 官方在 1.30 版本后,将 Kimi K2.5 设为 " 首个官方免费主力模型 ",用户安装 OpenClaw 时可以选择 MoonshotAI 通道,甚至可以留空 API Key 继续使用,OpenClaw 官方会补贴算力。

这种爆发式增长直接带来了商业回报。

受全球付费用户及 API 调用量大涨的共同推动,Kimi K2.5 发布不到一个月,近 20 天累计收入已超过 2025 年全年总收入。

正是因为 OpenClaw,Kimi 的海外付费用户数快速增长,海外收入首次超过国内。SimilarWeb 数据显示,Kimi 上月访问量达 3300 万,中国地区访问量占比从去年的 77% 降低到了今年的 60% 多。

这个阶段,月之暗面扮演的是 " 模型供应商 " 的角色,被动地提供 API 服务。

但 Kimi 团队很快意识到,与其被动地提供 API,不如主动降低用户使用门槛。一个月后,Kimi 正式推出 Kimi Claw。

这是一个云端托管的 OpenClaw 服务。用户无需本地部署,直接在浏览器中就能使用完整的 OpenClaw 功能。

Kimi Claw 把原版 OpenClaw 的复杂步骤全部省略了,用户只需拥有 Kimi Allegretto 及以上会员,就能在网页端一键创建自己的 " 云端 OpenClaw",整个过程不超过 1 分钟。

Kimi Claw 内置了 Kimi K2.5 模型,自动关联用户的 Kimi Code 会员权益额度。用户无需额外配置 API Key,也不用担心突然烧掉大量 token 导致账单爆炸。

在功能层面,Kimi Claw 直接集成了 ClawHub 社区的 5000 多个技能库,用户可以在网页界面中一键启用,包括天气查询、网页搜索、浏览器操作、邮件处理等高频场景。

原版 OpenClaw 的 Skills 需要用户通过命令行手动搜索、安装、配置,这个过程对普通用户来说又是一道门槛。Kimi Claw 则是把这些技能都整合到了界面里,用户只需要点击就能启用,降低了用户使用难度。

原版 OpenClaw 的核心理念是 " 本地优先 ",所有对话记忆和文件都存储在用户自己的设备上。这种设计保护了隐私,但也带来了不便,用户换了设备就得重新配置,AI 助手的记忆也无法延续。

Kimi Claw 则提供了 40GB 的云存储空间,用户可以在办公室电脑、家里电脑、手机上无缝切换,AI 助手的记忆始终保持一致。

这种体验对于需要在多个设备间切换的用户来说,是个很实用的功能。

02 MiniMax 也这么干了

2 月 25 日,MiniMax 也推出了自己的 MaxClaw,走的是与 Kimi Claw 类似但更激进的路线。

MaxClaw 基于 MiniMax M2.5 模型,虽然这是一个模型总参数量约 2300 亿,单次推理仅激活约 100 亿的大模型,但它的 API 价格非常便宜。

M2.5 在 OpenRouter 上的表现也很亮眼。发布后 12 小时内登顶 OpenRouter 热度榜,一周内登顶调用量榜首,周调用量暴涨至 3.07 万亿 token,超过 Kimi K2.5、GLM-5 与 DeepSeek V3.2 三家的总和。发布 7 天内 token 使用量突破 3 万亿,2 月单月 token 使用量达 4.55 万亿,空降榜首。

为什么 M2.5 能在短时间内实现如此惊人的增长?答案同样是 OpenClaw。

MiniMax M2.5 的定价策略是 " 极端性价比 "。在每秒输出 100token 的情况下,连续工作一小时只需花费 1 美金;而在每秒输出 50 个 token 的情况下,只需要 0.3 美金。

这意味着,同样是运行一个 7 × 24 小时这样的 OpenClaw 实例中,M2.5 的成本可能只有 Claude Sonnet 的 1/10 到 1/20。对于需要高频调用工具的 agent 场景来说,这种成本差异是决定性的。

OpenClaw 社区的开发者很快发现了这一点。

在外网论坛上,大量关于 " 如何在 OpenClaw 中配置 M2.5" 的教程涌现,甚至有开发者专门编写了 " 从 Claude 迁移到 M2.5" 的迁移指南。这种开源社区中的传播,比任何广告投放都更有效,要知道 OpenClaw 能走到今天,也是被开源社区带火的。

MiniMax 还将 MaxClaw 集成到自家的 MiniMax Agent 生态中,与 Expert 2.0 同步升级,形成了 " 对话式 AI + agent 工作流 " 的完整产品矩阵。

资本市场的反应更为直接。2 月 20 日,也就是马年港股开市首个交易日,MiniMax 的股价单日暴涨 14.52%,市值一度冲破 3042 亿港元,创下公司上市新高。

自上市以来,MiniMax 股价累计涨幅最高超过 480%,2026 年初至今股价最高涨幅超 450%,成功跻身港股 AI 核心标的行列。摩根大通给予 MiniMax " 增持 " 评级,目标价 700 港元。3 月 2 日,MiniMax 发布财报,2025 财年收入为 7900 万美元,同比增长 158.9%。

OpenClaw 带来的流量红利,让月之暗面和 MiniMax 转化为了自家的用户资产。

想想看,当一个用户通过 OpenClaw 使用 Kimi K2.5 一个月后,他已经习惯了这个模型的输出风格、响应速度和能力边界。这时候搬出 Kimi Claw 给他,然后说:" 你不用自己维护服务器了,不用配置 API Key 了,直接在我们的平台上用,还能多端同步。"

这转化率能低得了吗?

这两家公司的云端 OpenClaw 产品,本质上是在用 SaaS 的方式去做 agent 服务,你给我钱,那我给你一个低门槛的产品。虽然没有原版 OpenClaw 那么能扩展,但是胜在便宜好用。

事实上绝大多数 人其实都没有那么尖端的需求。他们可能只是想让 AI 帮忙检查邮件、整理文档、定时提醒、查询信息。

回到段落开头,Kimi 和 MiniMax 也都明白这个道理,agent 的价值不在于单次对话的质量,而在于长期、持续、稳定的任务执行能力。

所以他们刚好填补了市场的一片空白。

03 腾讯、阿里的 " 卖铲子 " 生意

OpenClaw 对普通用户来说门槛不低。你得有自己的服务器,得会配置 Node.js 环境,得懂怎么申请各家模型的 API Key,还得知道怎么设置消息通道。

整个过程下来,没有半小时到一小时搞不定,技术小白基本上看到教程就放弃了。这种极客属性很强的产品,注定只能在开发者圈子里流行,很难真正普及到大众市场。

腾讯和阿里看到的,恰恰就是这个痛点。与其让用户自己折腾,不如直接提供一套开箱即用的解决方案。

于是在 OpenClaw 爆火后,腾讯云和阿里云几乎同时推出了 OpenClaw 的一键部署服务。

这些云厂商提供的,不仅仅是一台服务器那么简单。他们把整个 OpenClaw 的运行环境都打包好了,包括预配置的镜像、自动化的部署脚本、已经调试好的依赖包,甚至还有现成的模型 API 接入方案。

用户只需要点几下鼠标,选择配置,付款,然后等几分钟,一个完整的 OpenClaw 实例就跑起来了。

腾讯云的方案相对简洁直接。

他们在轻量应用服务器上推出了 " 云应用 " 功能,用户通过这个功能可以三步完成 OpenClaw 部署。系统默认配置的是 DeepSeek API 作为模型供应商,但用户可以在 Dashboard 中自由切换到 Kimi、MiniMax 或者其他国产模型。

腾讯云的官方文档里写得很明白:"OpenClaw 来自开源社区,云应用不收费 ",但紧接着又补充了一句," 云服务器和 API 按照实际消耗计费 "。

腾讯赚的不是 OpenClaw 的钱,而是云服务器租赁费、流量费、还有模型 API 调用产生的费用。他们不强制绑定自家模型,给用户留了选择空间,但基础设施这一层,你跑不掉。

阿里云的打法则更加 " 生态化 "。

用户在轻量应用服务器上部署 OpenClaw 后,系统会引导用户前往 " 阿里云百炼大模型控制台 " 创建 API Key,默认调用的就是通义千问系列模型。

阿里云还推出了一个叫 "Coding Plan",这是阿里云百炼面向全品类 AI 编码工具推出的通用订阅套餐,兼容 OpenClaw 接入。

换句话说,阿里就是想通过 OpenClaw 的代安装服务,推广自己家的 AI 编程以及模型 API。

阿里和腾讯想要的,是要占领 agent 时代的 " 水电煤 "。

OpenClaw 的爆火证明了一个趋势,未来的 AI 应用不是简单的 " 聊天机器人 ",而是一个 24 小时在线、能执行复杂任务、需要稳定算力支持的 agent。

当个人用户和中小企业开始部署 agent 时,他们需要的不仅是模型的 API,还需要云服务器、存储空间、网络带宽,以及飞书、钉钉、企业微信这样的消息集成,还有安全沙箱环境等一整套基础设施,最后更不能少了像是 AI 编程这样具体的执行工具。

所以腾讯云和阿里云才提供了 " 一键部署 OpenClaw" 这个服务,以此抢占这个新兴市场的入口。

他们的逻辑很清楚,今天用户因为 OpenClaw 来了,明天可能因为其他 agent 产品来,但只要用户习惯了在他们的云平台上部署 agent,那么这些用户就成了长期客户。

更重要的是,当每个企业都需要部署自己的 agent 时,谁能提供最便捷、最稳定、最本土化的基础设施,谁就能占据这个万亿级市场的底层。

云厂商们看得很明白,卖铲子的生意,往往比挖金子的人更稳定,也更赚钱。

不仅是这样,OpenClaw 它代表的是一个信号,未来的 agent 产品只多不少。

云厂商们现在做的,就是提前占位,建立用户习惯,构建生态壁垒。当 agent 成为企业和个人的标配时,谁能提供更多配套的服务,谁就掌握了话语权。

04 智谱和豆包为何不激进

在这场围绕 OpenClaw 的竞争中,智谱和字节的态度显得有些微妙。

不过这不代表他们在 agent 这个赛道上落后了,恰恰相反,他们选择了一条更独特的路。

智谱对 OpenClaw 的态度可以概括为 " 技术上支持,战略上不主推 "。

智谱 GLM-5 在官方文档中明确提供了 OpenClaw 接入指南,GLM 的 Coding Plan 套餐也支持 OpenClaw 配置。

智谱甚至还推出了 "AutoGLM 版本的 OpenClaw",支持 OpenClaw 与飞书的一体化配置。从这些动作来看,智谱并没有忽视 OpenClaw,提供了作为一家中国 AI 厂商该有的一些基本支持。

智谱更看重的是 AutoGLM,这是一个具备 "Phone Use" 能力的 agent。AutoGLM 在 2025 年 12 月开源,能够完成外卖点单、机票预订等数十步复杂操作,还支持微信、淘宝、抖音等超 50 个高频中文应用。

AutoGLM 的核心技术是视觉语言模型,它不依赖传统的 API,而是像人眼一样 " 看 " 屏幕,通过理解 UI 元素的语义直接预测下一步动作。

这种方式的优势在于,它只要能看到界面,就能进行操作。这意味着 AutoGLM 可以操作任何应用,包括那些没有开放 API 的应用。

OpenClaw 的核心场景是桌面端,需要配置海外消息平台,这些平台在中国的使用率并不高。相比之下,AutoGLM 直接在用户最常用的中文应用中执行任务,不需要依赖海外消息平台,更符合中国用户的使用习惯。

智谱的想法是,既然 OpenClaw 证明了 agent 的市场需求,那真正适合中国用户的 agent,更应该是能操作微信、淘宝、抖音的 AutoGLM。

字节跳动对 OpenClaw 的态度更加微妙。表面上看,只有前文提到的,火山引擎提供的一键部署 OpenClaw。

这是因为字节对 agent 的注意力集中在移动端。

去年字节跳动与中兴努比亚合作推出 nubia M153 测试手机,内置了 " 豆包手机助手技术预览版 "。其核心技术是 UI-TARS,一个纯视觉驱动的 GUI agent 模型。

与 OpenClaw 相比,豆包手机助手更有优势。

豆包是直接集成到 Android 系统层,可以不打开应用就从底层进行操作,完全不会影响用户当下使用。

OpenClaw 需要通过浏览器控制或 API 调用来操作应用,权限和稳定性都受限。

同时,豆包手机助手能够实现跨应用的复杂操作,比如 " 帮我在三个外卖平台比价,然后下单最便宜的 "。OpenClaw 的跨应用能力有限,很多任务不能跨应用完成,而且在不同应用之间切换的速度很慢。

字节跳动官方始终强调,agent 应该是集成到操作系统中、能直接操作所有应用的系统级能力,而不是一个需要用户手动配置、运行在服务器上的独立程序。

这种理念上的差异,决定了字节不会在 OpenClaw 上投入太多资源。字节对 OpenClaw 保持距离,是因为它正在打造一个更高维度的解决方案。

当然,智谱和字节的这种战略选择也有代价。在 OpenClaw 热度最高的这段时间,错过了一波流量红利。

不过从长期来看,谁的选择更正确,还需要时间来验证。agent 这个赛道才刚刚开始,现在下结论还为时过早。/p>

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容