关于ZAKER Skills 合作
钛媒体 16分钟前

AI 巨额投入亮明牌,三大云财报冰火两重天

图片来源 @unsplash

本周,亚马逊、微软、谷歌相继发布新一季度财报。

与上一季度相比,市场反应出现明显分化:谷歌股价上涨 4% 至 7%,微软则下跌 2%。这与我们上一财年的预判基本一致——当科技巨头将资本支出与现金流的底牌亮出后,投资者开始为巨额 AI 投入的确定性回报投票。

但有一点也需要注意:当大部分计算需求如果仍然只是来自于 OpenAI、Anthropic 等少数头部大模型厂商,我们或许不应该那么乐观。

云厂商最近一个季度在忙什么?

从财报数据来看,三大云厂商在最近一个季度基本在做一件事:不计成本抢地建厂,并亲自下场兜售算力。

对于云厂商而言,建设 GPU 数据中心的投入成本其实在不断上升。

年初,我们注意到,亚马逊等五家头部科技巨头预计在 2026 年合计资本支出达到 6000 亿美元至 7000 亿美元。到这一季度,亚马逊第一季度资本支出高达 442 亿美元,并维持全年 2000 亿美元的预算高位。

截至一季度末,亚马逊自由现金流骤降 95% 至 12 亿美元,而去年同期为 259 亿美元,这是一个危险信号。亚马逊解释称是因为过去 12 个月,房地产和设备购置支出激增 593 亿美元,导致自由现金流减少。

谷歌和 Meta 则上调原本就已经相当高额的资本支出预期:谷歌预计在 1800 亿至 1900 亿美元,单季度支出高达 356.7 亿美元;Meta 的预计高达 1450 亿美元。谷歌解释称这是因为收购了数据中心服务商 Intersect,同时它还预计 2027 年资本支出将再次大幅增长。

相比之下,微软虽然在云业务上表现稳健,但其资本支出的回报成了投资者质疑的焦点。在与 OpenAI 的合作松绑之前,微软一直在大力投资建设和租赁新的 GPU 数据中心,以满足 AI 公司需求。

微软第一季度资本支出较上一季度减少了 56 亿美元。微软称,支出放缓是由于施工进度正常波动,而非需求下降。微软第一季度自由现金流为 158 亿美元,同比下降 22%,公司将此归因于资本支出较去年同期增加。

大笔算力投入背后

整体来看,受益于生成式 AI 业务需求,同样是巨额投入,三大云厂商云业务增长却走出了不一样的路:以谷歌表现最为亮眼,反观亚马逊 AWS 和微软云,尽管增速依然客观,但在云积压订单上表现一般。

谷歌云:营收增长 63% 至 200 亿美元,远超上一季度的 48%,AI 产品和基础设施销售是主要动力。

积压订单几乎翻倍,飙升至 4620 亿美元,谷歌预计未来 24 个月内其中一半将转化为收入。这不仅是财务数字,更是未来收入的保证书。谷歌这一增长归功于 TPU AI 芯片的销售,谷歌不再仅自用,而是开始向其他公司出售。

AWS:第一季度营收增长 28% 至 376 亿美元,创近四年最快增速。积压订单为 3640 亿美元,环比增加 1200 亿美元。

CEO 安迪 · 杰西指出,这些订单来自 " 相当广泛的 " 客户群体,且不包括 Anthropic 此前同意斥资 1000 亿美元购买 AWS 基础设施的交易。

微软:增速上升 1 个百分点至 40%,略高于此前预测的 37%-38%,但与谷歌和亚马逊相比显得逊色。

营收积压订单总额为 6270 亿美元,略高于上一季度的 6250 亿美元。其中 25%(约 1570 亿美元)将在未来 12 个月内转化为收入。微软未披露 OpenAI 的具体贡献,而上一季度这一比例为 45%。

不过,这些云厂商大部分激增的订单仍然来自于 OpenAI、Anthropic 等头部大模型厂商或拥有极强技术实力的科技巨头。虽然承接这些头部订单能迅速做大营收,但这对于云厂商也是一把双刃剑。

OpenAI 与微软闹掰就是鲜明的案例。一方面,头部大模型厂商通常要求长期合同以锁定算力,但云厂商却因此要背负长期且沉重的数据中心建设成本。另外,为留住大客户,云厂商也因此要持续满足其越来越苛刻的算力规模和价格要求,这也进一步导致其资本支出居高不下,自由现金流持续恶化。

卷算力,从全栈 AI 下手

事实上,如今美国算力市场也进入短缺时代。正如谷歌 CEO 皮查伊在财报电话会上坦言:" 我们在短期内算力受限 ",并透露若产能充足,云业务收入本可更高。这种短缺甚至传导至下游,导致 AI 初创企业面临 GPU 配额收紧和成本飙升。

为应对短缺,各大云厂商除采购英伟达 GPU 外,正不约而同加大自研芯片部署力度。例如,亚马逊的用于 AI 训练的 Trainium AI 芯片,谷歌云早先推出的 AI 张量处理单元 TPU,微软的 AI 加速计算的 Maia 100 芯片等,试图通过定制化硬件降低对单一供应商的依赖并优化成本。

云厂商提供 AI 专用芯片或许能够在 GPU 紧缺时满足客户一定诉求,如何满足当前市场对 AI 算力高涨的需求,对所有云厂商而言,都是一道必答题。

值得一提的是,谷歌计划向金融机构、前沿实验室等客户交付自研 TPU,用于其自有数据中心,预计今年晚些将获得一小部分收入,2027 年进一步放量。4 月初,亚马逊的股东信里也明确表示将芯片自研做到 " 行业真正的领导者 ",眼下之意则是不再为英伟达打工。

当然,云厂商很早就开启了芯片自研,但或许从来没有像今天这么重视过。谷歌打了翻身仗的成功之处,就在于将自研芯片 TPU v7 和自研模型 Gemini 3 实现了全栈式的能力打通。

而 AWS 过去的策略是:对于模型需要快速上线,希望选择英伟达的客户,会为其尽可能提供全面选择,对于有长期发展策略的 AI 企业,则为其提供 SDK 使用其自研芯片。

今天则变了,亚马逊与 OpenAI、Anthropic 达成合作,不仅仅是出租服务器,更是为了将 Bedrock 等 AI 平台植入客户开发流程。

云厂商或许也需要证明,自己的价值在于提供高效的模型微调工具、数据服务和 API,从而锁定更广泛的客户,而不是仅仅把 GPU 显卡卖给 Anthropic 或 OpenAI。

(本文作者 | 杨丽,编辑 | 杨林)

相关标签

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容