
" 字节是 AWS 大中华区 Bedrock 平台上的大客户,其贡献的 MRR(经常性月收入)能达到 800~900 万美元。此外腾讯的 CodeBuddy 也有一定的量。这下全没了。"
雷峰网了解到,Bedrock 是 AWS 的大模型调用平台,也是其 "AI 大模型超市 " 理念的载体。但长期以来,该平台都存在一种 " 畸形 " ——平台上 90% 多的调用量都来自于 Claude 模型,大中华区也不例外。
如今随着 Claude 对中国企业的断供,AWS 大中华 Bedrock 受到牵连,大客户流失,调用量下跌,数亿美元的营收也飞了。
更让人担忧的是,这还让AWS 大中华区的 genAI(生成式 AI)业务陷入几乎无货可卖的境地。
" 能卖的基本就剩下 Kiro、Quick Suite、Nova,前两者是工具卖不了多少钱,而自研的 Nova 大模型的能力还有待升级,不好卖。" 多位销售坦言道。
不仅如此,他们还告诉雷峰网,近两年 AWS 大中华区的销售策略正在引发一个矛盾:
一方面,政策大量倾斜于 AI 业务,忽略了对其他产品的支持;另一方面,比起美国总部,大中华区在 AI 模型的交涉权和 GPU 等资源的争取权上更弱,于是就造成了一个现象:单子商机抓到了,但供应跟不上,然后其他一些产品又没顾到,导致整体收益没有很好。
不仅如此,也有一些企业用户向雷峰网吐槽:"今年上半年 AWS 的容量较差,大模型资源池经常要啥没啥,估计是 GPU 耗量还没补上,听说去年都拿去训 Nova 了,和英伟达的订单生产量也没追上。"
大模型畸形依赖,GPU 资源短缺,虽重兵投入,但主控权低,左冲右突、顾此失彼……多种因素交叠下,AWS 大中华区的 AI 业务呈现出一种紧绷感和脆弱性。
AWS 大中华区 AI 业务缘何至此?困局的根源真正在它吗?
MaaS 层业务 " 一秒入冬 "
进入 AI 云时代后,与微软、谷歌、甲骨文等云计算大厂的策略不同,AWS 选择的策略是 "Choice Matters(选择至关重要)",在生成式 AI 平台 Amazon Bedrock 上接入了不少外部大模型,期望通过模型调用来带动底层云资源的消耗。
但实际上,AWS 的这套 " 模型超市 " 的商业模式并没跑通。
" 真正把这套模式跑通的是一些独立于云大厂和大模型公司之外的第三方公司,比如 Open Router。"AI 初创公司高管张宁告诉雷峰网,Open Router 是一个 AI 模型 API 聚合平台,通过统一接口连接开发者与 400 + 大模型,在每笔模型调用中抽取 5% 左右的佣金。
反观 AWS Bedrock,其约 90% 的调用量来自于 Claude 模型,这就让 Bedrock" 不像一个琳琅满目的超市,反而像某个产品的专卖店。"张宁表示。
" 在 AI 大模型成为云大厂关键竞争要素后,谁会把最能打的模型放在友商平台?" 这就导致 AWS 的 Bedrock 平台上没有多少能打的模型。
可以说,在 AI 战争的一开始,AWS 就犯了一个战略性错误:AI 大模型是 AI 云厂商的核心增长引擎,但 AWS 的这个引擎却被掌握在了别人手里。
尽管 AWS 号称 Bedrock 上接入了上百个大模型,但实际上,除了占大头的 Claude 外,其他很多模型如 GPT OSS、Qwen3、Llama、DeepSeek 等,基本都是不具备稀缺性或性能被降级的开源模型,此外还有亚马逊自研的 Nova 大模型,但这些模型的调用量占比都很小。
在开源模型上,AWS 对比其他供应商来说,并没有太强的差异化竞争力,而自研的 Nova 大模型表现又一般,导致 AWS 的 Bedrock 在短期内难以摆脱严重依赖 Claude 的 " 偏科 " 现状。
这是 AWS 在 MaaS 层的 " 基本国情 "。
Anthropic 禁令之后,这种 " 偏科 " 的危害出现了。
多位销售无不担忧地表示," 明年 AWS genAI 这块基本上没什么能卖的东西了。"
" 明年能卖的基本就剩 kiro、Quick Suite、Nova 这些,前两者是工具卖不了多少钱,Nova 能力不行,据说今年年底会推出 Nova 大模型的升级版,但实际水平如何,犹未可知。"
就目前 AWS 的 genAI 产品而言,情况并不乐观。更多细节数据可添加作者微信 xf123a 互通有无。
雷峰网多方调研了解到,Quick Suite 目前在大中华区市场表现不佳——在 AWS 全球各个国家和地区的排行里,大中华区是垫底的,用户量甚至比拉丁美洲还少。
再说 kiro 这款产品,作为一款 AI 开发工具,不仅推出时间晚——落后于阿里、字节、腾讯等同类竞品,而且用户数也少得可怜。
用户数全球仅有 2 万多,落到中国市场这一数量还要更少。
在 "Anthropic 禁令 " 之前,kiro 和字节 Trae 是直接竞争关系,但 Trae 价格更便宜,基本上便宜一半—— Trae 海外版一个月 10 美元,kiro 要 20 美元。
" 这两个产品之前都能提供 Claude 模型,但禁令出来后只有 kiro 能提供了,这或许是个转机。" 一位相关产品的企业用户周琳告诉雷峰网,如果有一部分死忠粉还想继续用 Claude 模型,可能会转向使用 kiro,这对亚马逊来说可能是个机会。
" 但麻烦也还在——因为 Anthropic 已经明确说不对中国用户提供 Cloude 模型了,所以 AWS 现在相当于有个 kiro 的漏洞,就看啥时候会把这个漏洞补上吧。" 她补充道。
总而言之,Anthropic 的禁令会影响明年 AWS 大中华区的 AI 策略,至少 " 明年定 AI KPI 的时应该会谨慎了。"
事实上,除了在模型调用上的 " 偏科 " 外,AWS 与 Claude 之间还存在更深层的问题。
不同于微软云与 ChatGPT 之间的深度绑定,AWS 与 Anthropic 的 Claude 模型之间的合作堪称 " 松散 "。
AWS 与 Claude 的合作更多聚焦在 API 层面,这就导致两个问题:
一是 AWS 在 Claude 模型上的主控权低,在 "Claude 禁令 " 上没有斡旋余地;二是,AWS 对 Claude 模型没有定价权,相当于只赚一个 " 通道费 "。
不仅如此,据多方渠道反映,Anthropic 已开启直销业务,直接与 AWS 争夺客户,这无疑给 AWS Bedrock 的市场前景又添了一层隐忧。
" 在 Claude 断供事件中,AWS 只是一个执行者,更别提 AWS 大中华区了,基本上没什么能做的。" 多位外资云销售告诉雷峰网,AWS 大中华区在 Claude 这一产品上的主控权很低—— "Claude 的价格由 Anthropic 原厂销售控制,AWS 大中华区没法介入,而且给不给资源、给多少资源,又是 AWS 美国总部说了算。"
不仅如此,Claude 属于 AWS Marketplace 上的产品,所以 Claude 模型调用所产生的绝大多数收益都归 Anthropic,而非 AWS;同时在销售侧,今年 Claude 在 AWS 大中华区的业绩算给销售的营收据说只计入 3% ——卖 100 块钱只算 3 块。
" 对 AWS 的大中华区管理层和销售们来说,AI 是一个讲故事的好题材,但真正能落到多少实惠,是要打个问号的。" 券商分析师张伟表示。
事实上,这几年 AI 业务在大中华区颇受重视。
不仅设有 " 专项销售激励 ",还在一些考核上也有所加强——不少大的行业线都会 "AI 产品营收要占比 10%" 的规定。同时大中华区也在加大人员投入,相关 AI 业务团队也进行了一定程度的扩招。
不仅如此,在战略导向上,大中华区内部也鼓励员工多卖 AI 产品,甚至一度形成了 " 只有做 AI 相关项目才有价值 " 的业务氛围。
种种举措是好的,但与此同时一些矛盾也开始逐渐显露。
不少销售发现,过去两年,AWS 大中华区的策略大量倾斜于 AI,忽略了对其他传统云计算产品的支持,又因为受制于 AWS 全球总部政策,大中华区在 AI 模型的交涉权和资源争取权上处于被动,于是很容易就变成:" 单子商机抓到了,但供应不上,然后其他产品又没顾到,最终导致整体收益反而没有很好。"
而如今 Anthropic 切断了对中国企业的 Claude 大模型供应,让本不富裕的 AWS 大中华区 MaaS 层更加雪上加霜。" 明年恐怕连商机都会少很多。"
GPU 资源 " 捉襟见肘 ",自研芯片易用性低
除了 MaaS 层业务面临挑战外,在 GPU 领域,过去两年不少国内外云大厂在 GPU 大单上增长迅猛,但 AWS(包括大中华区在内)却增长相对迟缓,远不及其他云大厂。
事实上,"GPU 储备不足、资源紧张 ",在近两年甚至成为 AWS 这个全球云计算一哥难以摆脱的 " 标签 "。与甲骨文、谷歌云、微软云等友商相比,AWS 的 GPU 资源相差了不止一个量级。
这种资源短缺的窘境也传导到了大中华区。并且,由于 AWS 大中华区营收在 AWS 全球总营收中只占到个位数,长期处于被忽视地位,使其在资源争取上天然处于弱势,进一步加重了其 GPU 资源的短缺程度。
一些企业客户向雷峰网吐槽:" 今年上半年 AWS 的容量比较差,大模型资源池要啥没啥。估计是 GPU 耗量还没补上,听说去年都拿去训 Nova 了,和英伟达的订单生产量也没追上。"
不仅如此,据多位外资云销售透露,去年年中,AWS 大中华区花了很大力气和 TikTok 签了一份 GPU 算力大单,但签完后却没能如约交付——因为当时 AWS 从英伟达那边订的货还没交付、没上线。这让 AWS 大中华区陷入被动,据传后来 TikTok 把 GPU 的大部分需求都转给了谷歌云。
前述销售王强感慨," 在 AI 大模型浪潮出现以前,大中华区市场上,微软云、谷歌云都只是 AWS 的小弟,但大模型出现后,这些小弟们凭借 AI 优势,有了弯道超车的势头。"
" 谷歌云在大中华区这两年发展‘很猛’,主要原因就是其 GPU 卖得好:价格相对便宜,折扣也深,而且最重要的是供应量充足。" 他补充道。
充足稳定的供给有多重要?
在券商分析师许孟看来," 甲骨文做的工作其实非常有限,就是从英伟达手里买来 GPU,装进数据中心后,卖给 OpenAI、xAI 等算力消耗大户,本质上就是‘倒手’,但它能拿到芯片,并且稳定地供应,让自己成了 AI 产业链中非常重要的一个供应商。"
再说回 AWS,据说今年上半年,AWS 大中华区和 TikTok 又补签了一个 5 年 25 亿美金的框架合同,但这次补签的不是 GPU 单子,而是计算、存储、网络等传统云服务。
不难看出,留给 AWS 的 GPU 市场机会正在减少。
另一份市场订单也反映了这一趋势。
多位云计算销售告诉雷峰网,今年上半年,阿里分别与微软云、谷歌云签订了约 2 亿和 5 亿美金的 GPU 订单,不久后也与 AWS 签订了一份金额约为千万美元级别的 GPU 订单,并且据说这是 AWS 大中华区目前 GPU 业务上最大的一单。
从三家 GPU 订单的金额对比上,也不难看出 AWS 大中华区在 GPU 资源上的 " 捉襟见肘 "。
不仅如此,签单原本是好事,但对资源紧缺的 AWS 来说,反而可能进一步加剧其短缺困境。
不少 AWS 客户向雷峰网坦言了这种担心,尤其不久前 AWS 全球与 OpenAI 签订了一项 380 亿美元的 GPU 订单,这是否会影响到对他们的 GPU 供应。
AWS 的 GPU 资源为何如此紧张?
最直接的原因是 AWS 在 GPU 采购、储备上相对友商来说,比较滞后且量少。
"AWS 在 AI 浪潮刚兴起时没有像甲骨文、微软一样大手笔投入盖数据中心,过往采购的 GPU 也偏少,尽管最近 AWS GPU 数量缓过来了些,但已经赶不上去年跟今年上半的 AI 疯狂需求了。" 许孟表示。
而这背后更深层次的原因是:亚马逊在 GPU 上陷入了战略摇摆、战略纠结。
不同于甲骨文全力押注英伟达芯片,亚马逊采取了 " 两头下注 " 的策略:既没放弃自研芯片,也会采购英伟达产品,但采购数量相对较少。
算力专家胡潇告诉雷峰网,AWS 在 GPU、AI 战略上有自研芯片的算盘:希望自己的自研芯片能快速成长,从而把 AI 云的成本降下来,把市场主动权掌握在自己手里。
事实上,近两年云大厂的智算中心尽管搞得如火如荼,但由于核心部件 GPU 被英伟达等芯片大厂所垄断,云计算公司们投资越高、成本越高,利润却没有大幅提升,业内也一直有 " 给英伟达打工 " 的调侃。
对 AWS 来说同样如此,GPU 成本太高,且供应完全掌握在别人手里,AWS 的利润率无法保证,压力不小。
但现在的问题是:AWS 自研芯片的进展不佳。
胡潇透露:" 目前 AWS 自研芯片 Trainium 系列直接使用难度较大,需要企业用户自己投入研发人员专门调测,耗时耗力。更何况目前有能力大笔投人做调测的企业并不多,所以从客户角度来看,Trainium 的使用难度更高,性价比更低。"
不仅如此,AWS 自研芯片还引发一个问题,即自研芯片与外部采购芯片之间相互打架。
常驻国外的 IT 工程师冯伟向雷峰网透露,AWS 会纠结这些问题:采购来的 GPU 是分给内部用还是给客户用?内部实际需求到底有多少?能不能用自研芯片替代 GPU?对客户能不能优先推荐自研芯片来替代 GPU?" 把事情搞得特别复杂。"
谷歌也有自研芯片,为何它在这波 AI 浪潮中似乎并未陷入 "GPU 资源短缺、内外部打架 " 的困扰?在一些业内人士看来,核心原因是谷歌云的 GPU 策略足够清晰 —— 一方面谷歌 GPU 储备更充足,另一方面它在 GPU 上也更坚定:在大部分情况下,对内用自研 TPU,对外销售 GPU,内外部不冲突。
不得不说,眼下 AWS(包括大中华区)的优势更多还是在通用算力上,在 GPU 算力上的优势并不大,而这在 AI 云计算时代,可能是致命的。要知道,当前智算基建的角逐已进入白热化,不仅云大厂,芯片厂商、AI 巨头、资本大鳄也都争相入局,智算早已成为各家角力的必争之地。
不过群雄并起的背后,也伴随泥沙俱下。产业真相究竟如何?最大的机会与痛点在哪?雷峰网 12 月 13 日举办的 2025 GAIR 大会智算专场将揭晓答案,大会详情见文末。
AWS 大中华区的 AI 业务为何如此 " 脆弱 "?
如前所述,AWS 大中华区在 AI 业务——不论是 MaaS 层还是 GPU 上,实际上都受制于美国总部,在资源争取、调用及产品支持上并无太多主控权。一旦产品和资源被断供,再多的销售策略也成了 " 无源之水,无本之木 "。
这是 AWS 大中华区 AI 业务 " 脆弱性 " 的直接原因。
而再往上追溯,AWS 乃至整个亚马逊集团在 AI 云产业浪潮中的阶段性掉队,才是其大中华区 AI 业务 " 脆弱性 " 的真正根源。
"(大模型、AI 工具、芯片……)什么都做了,但什么不突出。" 这是 AWS 在当前 AI 云时代面临的核心困境,这让它面对市场变化时只能被动跟随,遭遇友商竞争时也难以有效招架。
大模型浪潮让已有二十多年历史的传统云计算行业来到了一个重新洗牌的 " 新起点 ",昨日种种譬如昨日死。在新的赛场上,微软、谷歌、甲骨文都抓住了或大模型或 GPU 等某一风口,股价飙升、利润大涨。
相比之下,亚马逊这只 " 大象 " 似乎未能灵活转身,在第一时间抓住机遇、搭上 AI 云的风口。这是为何?
雷峰网采访了多位行业专家后发现,背后的原因很多。
在不少业内人看来,首要的问题出在战略上。
咨询机构分析师陶文告诉雷峰网,亚马逊一贯喜欢采取 " 后发制人 " 的策略 —— 不率先开拓新市场,而是等市场被验证后,再利用自己的体量和资源进场收割。
" 过去这套逻辑屡试不爽,但进入 AI 时代后不灵验了 —— 因为市场迭代太快了,等你看明白的时候,机会早跑了,导致战略、策略总是慢半拍。"
不少 AI 业内人告诉雷峰网,当初 OpenAI 刚起步,到处寻找投资时,最先找的是亚马逊,却被亚马逊拒绝了。后来 AI 行业风起云涌了,亚马逊终于反应过来想上车了,于是投了 Anthropic,但此时已经错失了先机。
" 上车的难度更高,效果也差一大截。亚马逊给 Anthropic 投了 80 亿,但现在 Anthropic 的估值已经达到了 3500 亿,80 亿能有什么话语权?"
而且现在 Anthropic 自己也开始做销售了,还跟 AWS 抢客户,再加上近期 Anthropic 还与微软、英伟达签订了相互合作的战略协议,这都给 AWS 的 AI 布局添了不少变数。
除了后发制人的战略惯性外,冯伟还告诉雷峰网,亚马逊管理层向来保守谨慎,缺乏雷厉风行的决策魄力和机制。
" 亚马逊有个叫‘ S Team ’的部门,是决策核心,隶属于 CEO 下面,约有二十多人,这些人大都是元老级别,趋向保守,在需要大胆变革时容易固步自封。"
不仅如此,亚马逊以电商为主业,长期深受电商 " 低利润率 " 文化的影响,对利润极其敏感。
" 这在成熟市场没问题,但 AI 时代的关键是抢先布局、占领市场,而非计较短期利润。当其他友商敢为人先、大手笔投入时,亚马逊还在纠结 GPU 定价、折扣力度、如何提升盈利等传统运营指标,这种思维与 AI 行业当前的逻辑明显脱节。" 冯伟补充道。
除战略层外,在战术执行上,包括 AWS 在内的亚马逊集团又因为体量太大而 " 尾大难掉 ",难以灵活调整。
在亚马逊总部技术人员张亮的印象中,这两年团队间的指令传达层级多、协作复杂,最明显的就是产品从立项、开发到交付,周期越来越长,延期也越来越严重," 很像那种典型的大企业病。"
以至于尽管 AWS 在基础模型自研方面起步并不算晚,ChatGPT 出来的时候就跟着布局了,但就是总跟不上,相比市场对 Gemini 的高关注度,Nova 时至今日一直默默无名。
张亮告诉雷峰网,AWS 在 AI 研发的人才与组织架构上目前存在的问题不少。
首先是 AI 领军人才的缺乏。比起谷歌 AI 人才频频出圈,市面上几乎听不到 AWS AI 人才的声音。在张亮看来,这是因为亚马逊太在乎成本,更倾向于选些 " 便宜够用 " 的人,但问题是现在市场上 AI 人才都溢价了,舍不得砸钱如何能吸引到人才?
另外,这几年亚马逊 AI 产研团队的人跟走马灯似的进进出出,就是留不住人。人才不稳,产品也难有起,推出的产品屡屡不及预期。而更深层次的原因还有,在现有组织架构下,再有能力的人来了之后既没足够授权,又被各种组织桎梏掣肘,根本没法放开手脚做事。
" 其实 AWS 的 AI 人才不少,但就是特别分散,比如亚马逊有自己的 AI 部门,AWS 也单独设了 AI 团队,另外各个业务线还有专属的小 AI 团队,架构显得特别杂乱,而且也增加了团队间的协作成本。" 张亮无奈道。
自上而下的组织桎梏、基因与战略的路径依赖……多重因素叠加,让 AWS 从曾经的云计算 " 一哥 ",沦为 AI 云浪潮中的追赶者。
而这一被动之势也在向大中华区云计算市场蔓延,给 AWS 大中华区团队带来了前所未有的压力与挑战。出路何在,已成为 AWS 大中华区亟需思考的核心命题,雷峰网也将持续追踪、关注。
注:文中出现人名如张宁、周琳、张伟、王强、许孟、胡潇、冯伟、陶文、张亮等皆为化名。
作者长期关注云大厂、SaaS、全球 AI 科技大公司等相关话题,欢迎添加微信 xf123a 交