
同一天,Anthropic 还宣布租下 SpaceX 的 Colossus 1 超级计算机,接入超过 22 万颗英伟达 GPU 用于推理。
5GW 在数据中心行业是什么概念?它大概相当于 5 座大型核电站满负荷运转的耗电量。这意味着谷歌几乎是为了 Anthropic 新建好几座超大规模数据中心,里面塞满几十万块谷歌自己设计的 TPU 芯片。而 Anthropic 为此付出的承诺采购额高达 2000 亿美元,占到了谷歌云积压订单的 40% 以上。
更有意思的是这笔交易的结构:谷歌先向 Anthropic 投入 100 亿美元现金(按 3500 亿估值),若达成里程碑再追加至 400 亿;同时 Anthropic 承诺 2000 亿美元的云服务和 TPU 采购支出。投资是投资,采购是采购,但两者捆绑在一起,构成了极强的锁定效应——芯片被指定为谷歌自研的 TPU。
面对这样一份带有排他意味的超级大单,Anthropic 也顺势调整了自己的算力版图:在训练侧大幅向谷歌 TPU 和亚马逊 Trainium 倾斜,同时仍保留英伟达 GPU 在推理等场景中的角色。5 月 6 日租下 SpaceX 的 22 万颗 GPU,就是 Anthropic 在 GPU 推理侧的最新动作。
对于行业来说,或许,它标志着 AI 产业从 " 参数军备竞赛 " 正式转向 " 算力效率竞赛 " 的拐点,也标志着技术路线正在加速分化。这次切换,正在无声而有力地改变 AI 芯片的权力格局,重新定义了大模型和底层硬件之间的关系。
01 被英伟达 " 卡脖子 " 的痛
要理解 Anthropic 这次的算力布局为什么重要,得先看懂过去两年 AI 算力市场有多残酷。
自从 ChatGPT 横空出世,大模型就变成了一个 " 烧钱无底洞 "。行业里心照不宣的潜规则是:不管你融了多少钱,最后都得变成一张张采购英伟达 H100 或 B200 的订单。英伟达靠着 CUDA 生态的绝对垄断,不光拿走了行业里绝大部分利润,还捏着模型厂商的命脉——黄仁勋给你发多少货,你就能训练多大的模型。
在这种格局下,大模型厂商的大部分利润最终流向了英伟达。
但局中人也不是没有反抗的心思,尤其是那些手里有钱的云巨头:
谷歌心里很憋屈:TPU 研发了十多年,一直在内部训练 Gemini,性能其实不差,但缺少外部顶级大模型的 " 背书 ",总被市场当成非主流。
亚马逊也很焦虑:作为全球最大的云厂商,AWS 每年要给英伟达交天价保护费。它砸了大钱研发自研芯片 Trainium,急需一个标杆客户来证明 " 不用英伟达也能跑顶级模型 "。
Anthropic 有点特殊:由 Dario Amodei 等前 OpenAI 核心成员独立创立,主打安全可控。它同时拿着谷歌、亚马逊和微软的钱——谷歌 400 亿美元投资、亚马逊累计 330 亿美元投资,加上 2025 年 11 月签下的 300 亿美元微软 Azure 算力合同,处在一个微妙的三角平衡中。面对高昂的算力成本,它比谁都渴望撕开一个口子,找找算力的 " 平替 "。
英伟达太贵、太慢、太强势;谷歌有芯片但缺生态,亚马逊有钱想要独立,Anthropic 想活下去还要盈利。四方的诉求,在这一刻正好咬合在了一起。一场针对英伟达定价权的多边博弈已经展开。
02 " 用脚投票 ":Anthropic 的算力豪赌
Anthropic 的选择,撕开了高昂算力成本的一角。它的本质,是用硬件的确定性,来换取模型迭代的绝对速度和成本护城河。
谷歌分阶段向 Anthropic 兑现算力承诺,规模预计达到 5GW 级别的 TPU 集群(从 2027 年起逐步上线)。与此同时,谷歌对 Anthropic 的总投资额至多达 400 亿美元,Anthropic 对谷歌云的采购承诺则高达 2000 亿美元。如此体量的算力集群,足以让 Claude 的训练效率大幅跃升,或者让 Anthropic 同时并行推进多个行业大模型的定制。
这些承诺背后,是 TPU 在特定任务上对 GPU 的真实优势:
性价比领先:根据 Google 官方数据,在大型 Transformer 模型训练场景下,TPU v6e 的性价比(性能 / 美元)约为同代英伟达 GPU 的 3 到 4 倍。
能效提升:Google 数据中心 PUE 约为 1.1,远低于行业平均 1.58,综合运营成本优势明显。SemiAnalysis 的研究报告也指出,Anthropic 的推理基础设施毛利率已从 38% 提升至 70% 以上,定制芯片路线的降本效应可见一斑。
从技术底层来看,Anthropic 早就开始谋求 " 去单一硬件依赖 "。2026 年 3 月,Anthropic 宣布已部署百万颗 Google TPU,下一财年 TPU 算力将达 1GW;在训练侧,TPU 和亚马逊 Trainium 已成为核心算力来源;而在推理侧,英伟达 GPU 仍然扮演重要角色—— 5 月 6 日租下 SpaceX Colossus 1 的超 22 万颗 GPU 就是最新例证。再加上用 JAX 框架对 TPU 集群做底层调优,Anthropic 已经形成了一个 TPU 训练主力 + Trainium 备份训练 + GPU 推理补位的多元算力架构。
可以理解为,这是训练到推理的全栈算力重构。Anthropic 已经用行动证明:大模型厂商不再只是硬件厂商的 " 提款机 ",而是可以成为算力架构的 " 设计师 "。
03 四大阵营贴身肉搏,与一个 " 务实 " 的混合算力方案
Anthropic 的转向,像一条鲶鱼,直接引爆了全球 AI 芯片四大阵营的正面对决。现在的算力江湖,已经不是英伟达一家独大了。
1. 谷歌– Anthropic:垂直闭环的领跑者
"TPU – JAX – Claude" 这条全栈协同的路线,正在结出果实。根据摩根士丹利预测,2027 年 TPU 对外销售有望拿下全球 AI 加速芯片市场 20% 的份额。更可观的是成本竞争力:Claude 系列在同等性能段内的 API 定价,相比部分头部竞品更具优势,谷歌通过硬件降本直接帮 Anthropic 打出了性价比牌。
2. OpenAI:算力堆得猛,兼容性拖后腿
相比之下,OpenAI 正在构建庞大的算力矩阵,已锁定 30.5GW 的长期算力合约。2025 年 10 月,OpenAI 与 AMD 签署多年期协议,部署总计 6GW 的 AMD Instinct GPU 算力(首期 1GW MI450,2026 年下半年部署),与英伟达 GPU 并行组成大规模算力集群。
但这种 " 大杂烩 " 架构付出了不小的代价:多芯片、多厂商导致算力利用率偏低,规模化的红利被沉重的兼容性成本吃掉了。
3. 英伟达:死守基本盘,高端腹地正在被侵蚀
老大哥英伟达依然握着 AI 加速器市场 80% 以上的份额,CUDA 生态还是它坚不可摧的护城河。但 TPU 在大模型核心训练场景里持续渗透,已经让黄仁勋感到了压力。2025 年 7 月,英伟达宣布 CUDA 全面支持 RISC-V 架构——这在以前几乎不可想象,生态壁垒正被 " 定制化需求 " 从内部撬开。
4. 中国阵营:开源适配,换道超车
囿于外部环境,国产 AI 芯片整体市占率逆势提升。根据 IDC 数据,2025 年中国 AI 加速卡市场总出货量约 400 万张,本土厂商合计出货约 165 万张,市场份额首次突破四成,达到约 41%(中国境内市场)。例如 DeepSeek-V4(2026 年 4 月发布)已于官方技术报告中写入华为昇腾 NPU 支持,华为昇腾、摩尔线程等多家国产厂商均完成 Day 0 适配。中国厂商不拼单点极限算力,而是走 " 芯片 + 模型 + 场景 " 的快速落地路线。
格局已经变了:AI 竞争不再是比谁买的卡多,而是 " 算力效率 × 场景适配 " 的综合暗战。
而 Anthropic 精心设计的这套混合算力方案,恰恰指明了下一代 AI 基础设施的主流方向——分工明确、冗余可控、拒绝被单一厂商绑架。这套方案非常精明:
5GW 的 TPU 作为训练绝对主力,扛起核心大模型的高强度训练;
GPU 作为 " 万金油 ",补位推理和多模态数据处理等任务(SpaceX Colossus 1 的 22 万颗 GPU 就是最新落子);
亚马逊 Trainium 作为战略备份训练算力池,压低整体边际成本。
这套组合拳带来了几个立竿见影的商业好处:供应链风险大幅降低(不怕被单一供应商卡脖子);Anthropic 于 2025 年 6 月公开的多智能体系统数据显示,以 Claude Sonnet 为主导智能体、多个 Claude Haiku 为子智能体的架构,相比单智能体 Claude Opus,任务性能提升约 90%;更重要的是,硬件级加密结合 Anthropic 引以为傲的伦理框架,让金融、医疗等高敏感行业的客户敢于真正下单。
04 戴上 " 金手铐 " 的 Anthropic
当然,商业世界里没有免费的午餐。Anthropic 这次向 TPU 深度倾斜,在换来极致训练效率和短期成本优势的同时,也给自己悄悄地戴上了一副 " 金手铐 " ——表面金光闪闪,实则勒得越来越紧。
首先,最直接的风险是底层架构的话语权正在旁落。深度绑定谷歌 TPU,意味着 Anthropic 未来的模型优化、算子开发、甚至推理框架的选型,都会被 TPU 的硬件迭代节奏牵着走。谷歌的 TPU 团队每推出一代新芯片,Anthropic 就得跟着重新适配甚至重写部分底层代码。短期看,这是 " 联合优化 ";长期看,这就变成了 " 单向依赖 "。一旦谷歌调整 TPU 的产品路线图——比如某个指令集不再支持,或者某个硬件特性被放弃—— Anthropic 的适配成本和迁移风险将显著上升。
其次,多云协同很容易变成 " 多云约束 "。Anthropic 目前同时踩着谷歌云、AWS 和微软 Azure 三条船,听上去很灵活:TPU 主力训练,Trainium 备份训练,GPU 推理。但在实际操作中,这种跨云架构的维护成本远超想象。
数据要在三个云之间同步、任务调度要兼顾三套芯片的差异、灾难恢复方案要写三份——更别提三家云厂商各怀心思,未来会不会在价格、带宽、优先级上互相掣肘?据知情人士转述,Anthropic 内部对多云架构的运维复杂度早有感受。一旦某天谷歌和亚马逊的关系微妙变化,Anthropic 就会沦为夹在中间的那个。
更隐蔽但更致命的,是技术独立性的慢性流失。Claude 的每一次模型迭代,理论上应该是为了更好的智能和安全性。但未来,如果某个架构改动在 TPU 上跑得飞快、在 GPU 或 Trainium 上却表现平平,产品经理会怎么选?大概率会 " 为了上线 " 而优先适配 TPU。
久而久之,Claude 的优化方向将越来越受 TPU 硬件特性的牵引,而不是一个跨平台、可移植的通用大模型。这就好比一个作家,本来可以用任何纸笔写作,后来被赞助商要求只能用某一种特制钢笔——写出来的东西也许更流畅,但那支钢笔的任何缺陷,都会直接写进他的作品里。
拉长视野看,Anthropic 的处境其实很微妙。对比一下:
OpenAI 走的是多供应商、多芯片的 " 大杂烩 " 路线。虽然效率低下、兼容成本高,但好处是——没有哪家芯片厂商能真正卡住它的脖子。微软、英伟达、AMD 之间互相牵制,OpenAI 反而拿到了议价空间。
国产厂商如 DeepSeek 走的是开源适配路线。昇腾、寒武纪、海光……谁家芯片能在主流模型上跑出好效果,就用谁。生态是碎片化的,但也是自由的。
而谷歌– Anthropic 的闭环,在训练效率上无疑是最锋利的刀,但握住刀柄的那个人,是谷歌。Anthropic 的核心训练算力、迭代速度、甚至一部分技术路线,都被锁在了谷歌的生态围墙之内。不过也要承认,Anthropic 同时握有 AWS Trainium、微软 Azure 和 SpaceX GPU 等多条后路,这副金手铐目前还没有完全焊死。
更让人担心的是,这副金手铐还有一个时间轴上的陷阱。五年期的 2000 亿美元采购承诺,听起来是天堂,但合同到期后呢?到那时,Anthropic 的整个技术栈、代码库、运维体系、人才习惯,都会深度绑定 TPU。想要再换回 GPU 或迁移到其他芯片,成本高到几乎不可能。届时谷歌续签合同的条件,Anthropic 还能说 " 不 " 吗?一位不具名的风投合伙人说得比较直白:"Anthropic 不是在租谷歌的算力,而是在用未来数年的自主权,换今天的一张船票。"
当然,不是说 Anthropic 做错了。在 AI 这个烧钱如烧纸的行业,首先要活下来,其次是跑得快。只是在商业世界里,没有完美架构,只有阶段性最优解。Anthropic 目前拿到的是训练速度和成本的最优解,代价是——它把一部分未来的选择权,提前交了出去。
05 芯片没有灵魂,但定义芯片的模型有
回看计算机这半个多世纪的历史,Anthropic 的转向,其实是科技界一个经典的 " 宿命轮回 "。
三十年前,GPU 作为专攻图形渲染的特定芯片,靠异构计算打破了通用 CPU 的垄断;三十年后,当 GPU 自己也变成了横在 AI 产业面前的 " 通用霸权 " 时,TPU、Trainium 这些更专门化的 ASIC 芯片,正用同样的逻辑发起反攻。
这意味着,AI 底层基础设施的逻辑,正在从 " 暴力堆砌 " 转向 " 精耕细作 "。大模型不再是可以在任意一张显卡上随便跑通的 " 上层软件 ",它正在变成必须与特定硅片深度耦合的 " 重工业实体 "。
所以,Anthropic 投向定制芯片,绝不意味着 GPU 会消亡,而是标志着 " 通用算力大一统 " 时代的终结。未来的版图注定走向分裂:英伟达 GPU 依然会长久统治通用计算和推理,但在超大规模模型训练的最核心地带,定制芯片将接管阵地。
英伟达的护城河依然深不见底,但水面之下,暗流已经不可逆转。当 " 买卡就能做模型 " 的草莽时代结束,未来的竞争焦点,将从 " 对算力资源的粗暴囤积 ",彻底升级为 " 对异构算力的精细调度权 " 和 " 对底层硅片架构的定义权 "。
在这场没有硝烟的底座重构中,谁掌握了定义硬件的权力,谁就拿到了下一轮竞争的关键筹码。
(本文首发钛媒体 APP,作者 | 硅谷 Tech news,编辑 | 赵虹宇)