关于ZAKER 合作
钛媒体 43分钟前

英伟达 GTC:AI 界春晚,满心期待、扫兴而归?

文 | 海豚研究

2026 年 3 月 16 日,英伟达创始人兼 CEO 黄仁勋在 GTC 2026 大会上发表主题演讲,核心议题涵盖 CUDA 平台 20 周年、推理拐点与算力需求爆发、Vera Rubin 系统架构、Groq 集成、OpenClaw 代理革命及物理 AI 与机器人。

一、GTC2026 核心要点

1)数据中心营收展望2025-2027 年数据中心累计收入达到 1 万亿美元(去年 GTC 大会给的是 2025-2026 年累计收入 5000 亿美元),符合预期。市场主流预期本身已经提升至 1 万亿美元以上,更期待的是公司能给出明确订单等方面的信息。

2)性能和成本:在 tokens/watt(吞吐量)和 token 速度(智能度)两个维度上,英伟达均为全球最高性能;英伟达的 token 成本全球最低。

3)数据中心成为 "token 工厂 ":每个工厂受限于功率(如 1GW),需要管理 token 生产的吞吐量和速度。

token 将像大宗商品一样细分层级:免费层(高吞吐、低速度)->$3/ 百万 token 层 ->$6/ 百万 token 层 ->$45/ 百万 token 层 ->$150/ 百万 token 层(顶级低延迟、高带宽算力)

以 1GW 数据中心为例,每 25% 功率分配一个层级:Grace Blackwell 可比 Hopper 生成 5 倍收入,Vera Rubin 可再提升 5 倍

4)Vera Rubin:在此前 6 类芯片基础上,新增了 Groq 3 LPU。

① Vera Rubin:100% 液冷(45 ° C 热水冷却),所有线缆取消,安装时间从两天缩短至两小时;

② CPO(共封装光学)Spectrum-X 交换机:已全面量产,与 TSMC 共同研发;

③ CPU:世界上唯一使用 LPDDR5 的数据中心 CPU,独立售卖,将成为数十亿美元级业务;

Vera CPU Tray 用于 Agentic workload, 单个 Vera Compute Tray 集成了 8 颗 Vera 处理器 , 每个处理器 88 核 , 同时支持 8 通道的 LPDDR5x 内存 , 单个 socket 支持 1.2TB/s 的内存带宽。CPU Tray 上集成了 2 块 BF4-DPU。

④ Vera Rubin:已在 Microsoft Azure 上线运行(第一个 rack)。英伟达供应链已可每周生产数千套系统,每月数 GW 级 AI 工厂产能

⑤ Rubin Ultra:Rubin 是横向滑入机柜,Rubin Ultra 要垂直放入新机架 Kyber,其中 144 GPU 在一个 NVLink 域内,中板后方用 NVLink 交换机替代铜缆。

5)Groq 3 LPU(新增芯片):Groq 和 HBM 并用,符合预期

技术来自于收购的 Groq 团队,Groq LP30 由三星制造,预计三季度发货。

单颗 Groq 芯片 500MB SRAM vs 单颗 Rubin 芯片 288GB,Groq 单独无法承载主流大模型的参数和 KV Cache

解决方案:推出了一个 Dynamo 软件,把推理步骤分解出来:

1. 预填充阶段:也称 Prefill,也是模型批量处理用户输入的 Prompt 的阶段,主要是以计算为主,因此在 Vera Rubin 上完成;

2. 解码的注意力环节:主要是计算当前产生的 token 与历史 tokens(KV Cache,对话存储的记忆)的关系,是计算和存储并重的工作性质,也是在 Vera Rubin 上完成,频繁读取 Rubin 上的 HBM 内存单元。

3. 解码的前馈网络(FNN):在 Attention 环节确定上下文关系后,前馈网络负责基于前 Token 来输出下一个 Token 的概率分布,并选出下一 Token,即 " 吐字 "。

这个环节的每一层都要读取模型的权重参数,读一次只能处理一个 Token,原本参数放在 HBM 中,计算单元一直在等着数据从 HBM 搬运过来,这也是 " 内存墙 " 的真正堵点。

把解码分成用软件拆出两个阶段后,等于把模型在工作的 " 上下文记忆 " 仍然保留在 HBM 上,但把大部分模型参数转移到了 Groq 的 SRAM 上,芯片上内嵌的存储层 SRAM 能够以极低的延迟读取这些权重参数,从而解决推理吐字慢的问题。

Rubin 和 Groq 之间用以太网紧密耦合,RDMA 特殊连接模式可以让两芯片之间的交互延迟降低约一半。

6)Feynman:全新 GPU + LP40(LPU)+ Rosa CPU(以 Rosalind 命名)+ BlueField-5 + CX10。

Kyber 铜缆 scale-up + Kyber CPO scale-up(首次同时支持铜缆和 CPO scale-up)。这意味即使在 Feynman 阶段,也将同时支持铜和 CPO 的混合方式。

虽然英伟达长期看好 CPO 方案,但客户方面倾向于将铜缆方案用到极致后再切换 CPO(部署 / 维护更简单)。

7)其他信息:

①太空数据中心:针对能源不足问题 , 英伟达宣布 Vera Rubin Space-1,计划将数据中心部署到太空(需解决辐射散热问题,太空中无传导和对流,仅有辐射);

② OpenClaw:每家 SaaS 公司将变成 GaaS 公司(Agent-as-a-Service)。

代理系统在企业网络中可以访问敏感信息、执行代码、对外通信——这需要企业级安全。英伟达与 OpenClaw 创始人 Peter Steinberger 合作推出NemoClaw(OpenClaw 的企业安全参考设计),集成 OpenShell 技术,包含网络护栏(network guardrail)和隐私路由器(privacy router),可连接各 SaaS 公司的策略引擎;

③物理 AI 与机器人:自动驾驶方面 , 比亚迪 / 吉利 / 现代 / 日产等厂家加入 Robtaxi, 并与 Uber 合作。然后机器人方面 KUKA/ABB 等厂商 , 还有很多机器人 / 无人机平台等。

总体来说,这次发布会,除了澄清了铜缆和 CPO 会并用,主要就是新加入了一个服务器中新加入了 Groq 的 LPU 选项。这个在 Groq 被买后,市场已有充分预期;甚至指引的三年一万亿美金收入,市场实际其实也已经超过这个数字了。

整体上从英伟达的产品迭代可以看到:最近几年的迭代重心不再芯片微架构的创新,从 Hopper 到 Blackwell 解决主要是组合和连接的问题,英伟达主要是完成了卖芯片到卖系统和服务的切换。

而从 Blackwell 到 Rubin,无论是新加入的 DPU(NAND 芯片),还是这次新买来后紧急放进来的 LPU(SRAM),主要完成的是 AI 进入推理和 Agent 时代,内存墙的问题。

二、英伟达的近况:大会指引平淡,需要 " 成长性新故事 "

英伟达的股价表现,在近半年的时间内基本上一直都在 170-200 美元的区间内震荡。即便下游大厂增加资本开支、公司业绩持续超预期,公司股价也没能实现向上突破,主要是市场有以下几方面担心:

a)大厂资本开支持续性:Meta、谷歌等厂商都明确增加了 2026 年的资本开支,四大核心云厂商在 2026 年的资本开支有望达到 6600 亿美元以上,同比增长 60%。但值得注意的是,大厂资本开支在收入中的占比处于达到了相对较高的位置

以 Mete 为例,公司预期 2026 年资本开支将达到 1150-1350 亿美元,资本开支 / 年度收入将达到 50% 以上,进一步提升的空间相对有限。即使各家大厂增加了 2026 年的投入展望,但依然难以打消市场对后续资本开支增长持续性的担心。

b)AI 芯片市场份额:当前英伟达在 AI 芯片市场的份额维持在 75% 以上,较高的价格和 " 近乎垄断 " 的市场结构,促使下游云厂商寻求 " 替代方案 "。

在谷歌之外,博通 AVGO 已经明确收获了 Anthropic、Open AI 等的大额订单,多个客户也都开启了自研方案。即便英伟达后续还有 Rubin 新品,但市场普遍预期公司在 AI 芯片市场的份额将逐步下滑。

3)产品竞争力:当前谷歌TPUv7 在 FP8 等领域的表现大致已经接近于英伟达的 B200(2024 年四季度量产),谷歌 TPU 大致落后于英伟达一年左右。

英伟达在 Blackwell 系列中引入了 NVFP4 格式,能使推理性能在 FP8 的基础上再翻一倍。但其实 FP8 满足了当前市场大部分的需求,TPUv7 已经是一个 " 替代选项 "。

为了对抗行业竞争,英伟达正在通过战略投资和算力扩容,来锁死供应链上下游,比如说,以芯片部署为前提的战略投资 Open AI(300 亿美元)和 Anthropic(100 亿美元)、为 Meta 旗下全新 AI 实验室 MSL 提供数百万块 GPU 的算力支持,其中部分协议有一定的降价锁定客户需求的意味。

结合上述的市场担心,公司估值也处于相对较低的位置。海豚君按照截止 25-27 自然年数据中心收入 1.15 万亿(高于公司目前指引的 1 万亿),英伟达当前市值(4.4 万亿美元),对应 2028 财年(接近 2027 自然年)净利润约为 13 倍 PE 左右(假定营收两年复合增速 64%,毛利率 72%,税率 18%)。

英伟达上季度交出了超预期的财报,但公司股价并未迎来上涨。这主要是因为 2027 年收入预期已经全部打进去后,市场担心下游云厂商在资本开支强度拉到 50% 以上的之后,进一步拉高资本开支的空间非常有限。

理论上,处于云厂商二级导上的英伟达,即使客户资本开支高位维持,英伟达来自云客户的收入会就变成零增长,市场不敢给 2027 年之后的英伟达高估值,导致英伟达当前只有 27 年利润 13X 的 PE,建筹的兴趣也不高。

结合本次 GTC 大会的内容来看,老黄给出的 " 至 2027 年数据中心累计入达到 1 万亿美元以上 ",其实市场预期早已拉到比这个数还更高一些。

会议中更多的时间,给到了英伟达的产品推销和路线规划,对产业链公司的影响更多(CPO 和铜仍将混合使用、LPU 与 HBM 分担不同的工作),对公司自身的增量信息并不多。

未来英伟达公司的 PE 再次提升,海豚君认为除了 AI 应用上能够更大规模、更快速度落地之后,还需要新的 " 成长曲线 " 来拉动,比如 "Physic AI"、" 太空算力 " 等。

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容