

博伊德的履历,几乎写满了 Anthropic 此刻最急需的关键词。2009 年埃里克 · 博伊德加入微软,最高担任企业副总裁,直接管理一支约 1500 人的团队,负责构建和运营支撑整个 Copilot Stack 的底层 AI 平台。
他在微软亲历了 AI 基础设施的三次范式跃迁:2015-2018,传统机器学习时代,主导 Azure 机器学习平台的商业化;2019-2022,大模型萌芽期,负责 Azure OpenAI 服务的底层架构,成为 OpenAI 模型在云端运行的 " 管道工 ";2023-2025,生成式 AI 爆发期,管理 1500 人团队支撑 Copilot 全栈(包括 Office、Teams、Bing 等内部产品的 AI 化),同时向全球企业输出 AI 部署能力。
这段经历的价值不仅在于规模,他管理的 Azure AI 平台是全球最复杂的企业级 AI 基础设施之一,更在于跨度,他同时理解 " 多租户云平台的通用性 " 与 " 大模型原生架构的特殊性 ",这种双重经验在行业内屈指可数。
2025 年底,Anthropic 正站在关键十字路口。
一边是需求的井喷,Claude Code 等产品用户量激增,服务多次出现稳定性危机;另一边是基建的短板:2025 年 11 月,公司宣布拟投入 500 亿美元在美国建设 AI 数据中心,得克萨斯州、纽约州率先启动,并扩大与谷歌的 TPU 合作以确保 2027 年后的算力供应。这意味着 Anthropic 需要的不是一位 " 云架构师 ",而是一位经历过从 0 到 1 搭建超大规模 AI 基础设施的指挥官,懂 GPU/TPU 集群调度、懂分布式训练容错、懂如何在资本支出飙升的同时保证服务可靠性。
博伊德的加入恰逢其时。Anthropic 首席技术官拉胡尔 · 帕蒂尔(Rahul Patil)在 LinkedIn 上明确表示:" 他在企业级基础设施管理方面的经验,将助力我们满足全球用户创下历史纪录的使用需求。"
更微妙的是,博伊德在微软期间恰好负责过在 Azure 云上托管 Anthropic 模型的基础设施,他对 Claude 的技术需求有预先了解,这种甲方变乙方的视角转换,大幅降低了磨合成本。博伊德的加入,标志着 Anthropic 正式从 " 技术领先者 " 向 " 全规模技术提供商 " 转型。
回看 AI 产业的发展,竞争已经向基建层。
2020-2023,模型创新主导。参数规模、上下文长度、多模态能力是竞争焦点,OpenAI、Anthropic、Google 轮流发布最强模型抢占心智;2024-2025,产品化竞争。ChatGPT、Claude、Gemini 从 demo 走向工具,用户留存和商业化能力成为标尺;2026 年起,基础设施军备赛。当模型能力趋同、产品形态收敛,规模化效率决定胜负,谁能以更低的成本、更高的稳定性支撑更大体量的推理需求,谁就能在价格战中存活。
头部玩家早已开始布局。OpenAI 计划到 2030 年投入约 6000 亿美元用于算力基建。谷歌母公司 Alphabet 更激进,宣布 2026 年将投入 1750 亿至 1850 亿美元扩建数据中心,并设立专门的 AI 基建首席技术官职位。数以千亿计的资本正涌向液冷散热、绿色能源供应、专用芯片设计和分布式训练框架。
这一阶段的残酷性在于,基础设施没有捷径。它不像模型架构可以弯道超车,而是需要真金白银的投入、年复一年的工程积累、以及像博伊德这样拥有实战经验的指挥官。
对于投资者而言,这意味着一个窗口期的关闭与另一个窗口期的开启。单纯投资大模型公司的机会正在收窄,因为竞争焦点已转向,谁能更高效、更稳定、更可持续地支撑起下一个十亿用户的 AI 需求。
博伊德在 LinkedIn 上写道:" 过去六个月,尤其是近两个月,Claude Code 所展现的影响力,充分印证了人工智能的无限潜力。" 这句话的另一层含义或许是,当技术潜力已被验证,下一步就是用基础设施兑现潜力。(作者|郭虹妘,编辑|杨林)