文 | 海豚研究
2026 年 3 月 16 日,英伟达创始人兼 CEO 黄仁勋在 GTC 2026 大会上发表主题演讲,核心议题涵盖 CUDA 平台 20 周年、推理拐点与算力需求爆发、Vera Rubin 系统架构、Groq 集成、OpenClaw 代理革命及物理 AI 与机器人。
一、GTC2026 核心要点
1)数据中心营收展望:2025-2027 年数据中心累计收入达到 1 万亿美元(去年 GTC 大会给的是 2025-2026 年累计收入 5000 亿美元),符合预期。市场主流预期本身已经提升至 1 万亿美元以上,更期待的是公司能给出明确订单等方面的信息。


token 将像大宗商品一样细分层级:免费层(高吞吐、低速度)->$3/ 百万 token 层 ->$6/ 百万 token 层 ->$45/ 百万 token 层 ->$150/ 百万 token 层(顶级低延迟、高带宽算力)。
以 1GW 数据中心为例,每 25% 功率分配一个层级:Grace Blackwell 可比 Hopper 生成 5 倍收入,Vera Rubin 可再提升 5 倍。

① Vera Rubin:100% 液冷(45 ° C 热水冷却),所有线缆取消,安装时间从两天缩短至两小时;
② CPO(共封装光学)Spectrum-X 交换机:已全面量产,与 TSMC 共同研发;
③ CPU:世界上唯一使用 LPDDR5 的数据中心 CPU,独立售卖,将成为数十亿美元级业务;
Vera CPU Tray 用于 Agentic workload, 单个 Vera Compute Tray 集成了 8 颗 Vera 处理器 , 每个处理器 88 核 , 同时支持 8 通道的 LPDDR5x 内存 , 单个 socket 支持 1.2TB/s 的内存带宽。CPU Tray 上集成了 2 块 BF4-DPU。
④ Vera Rubin:已在 Microsoft Azure 上线运行(第一个 rack)。英伟达供应链已可每周生产数千套系统,每月数 GW 级 AI 工厂产能;
⑤ Rubin Ultra:Rubin 是横向滑入机柜,Rubin Ultra 要垂直放入新机架 Kyber,其中 144 GPU 在一个 NVLink 域内,中板后方用 NVLink 交换机替代铜缆。


技术来自于收购的 Groq 团队,Groq LP30 由三星制造,预计三季度发货。
单颗 Groq 芯片 500MB SRAM vs 单颗 Rubin 芯片 288GB,Groq 单独无法承载主流大模型的参数和 KV Cache。
解决方案:推出了一个 Dynamo 软件,把推理步骤分解出来:
1. 预填充阶段:也称 Prefill,也是模型批量处理用户输入的 Prompt 的阶段,主要是以计算为主,因此在 Vera Rubin 上完成;
2. 解码的注意力环节:主要是计算当前产生的 token 与历史 tokens(KV Cache,对话存储的记忆)的关系,是计算和存储并重的工作性质,也是在 Vera Rubin 上完成,频繁读取 Rubin 上的 HBM 内存单元。
3. 解码的前馈网络(FNN):在 Attention 环节确定上下文关系后,前馈网络负责基于前 Token 来输出下一个 Token 的概率分布,并选出下一 Token,即 " 吐字 "。
这个环节的每一层都要读取模型的权重参数,读一次只能处理一个 Token,原本参数放在 HBM 中,计算单元一直在等着数据从 HBM 搬运过来,这也是 " 内存墙 " 的真正堵点。
把解码分成用软件拆出两个阶段后,等于把模型在工作的 " 上下文记忆 " 仍然保留在 HBM 上,但把大部分模型参数转移到了 Groq 的 SRAM 上,芯片上内嵌的存储层 SRAM 能够以极低的延迟读取这些权重参数,从而解决推理吐字慢的问题。
Rubin 和 Groq 之间用以太网紧密耦合,RDMA 特殊连接模式可以让两芯片之间的交互延迟降低约一半。

Kyber 铜缆 scale-up + Kyber CPO scale-up(首次同时支持铜缆和 CPO scale-up)。这意味即使在 Feynman 阶段,也将同时支持铜和 CPO 的混合方式。
虽然英伟达长期看好 CPO 方案,但客户方面倾向于将铜缆方案用到极致后再切换 CPO(部署 / 维护更简单)。

①太空数据中心:针对能源不足问题 , 英伟达宣布 Vera Rubin Space-1,计划将数据中心部署到太空(需解决辐射散热问题,太空中无传导和对流,仅有辐射);
② OpenClaw:每家 SaaS 公司将变成 GaaS 公司(Agent-as-a-Service)。
代理系统在企业网络中可以访问敏感信息、执行代码、对外通信——这需要企业级安全。英伟达与 OpenClaw 创始人 Peter Steinberger 合作推出NemoClaw(OpenClaw 的企业安全参考设计),集成 OpenShell 技术,包含网络护栏(network guardrail)和隐私路由器(privacy router),可连接各 SaaS 公司的策略引擎;
③物理 AI 与机器人:自动驾驶方面 , 比亚迪 / 吉利 / 现代 / 日产等厂家加入 Robtaxi, 并与 Uber 合作。然后机器人方面 KUKA/ABB 等厂商 , 还有很多机器人 / 无人机平台等。
总体来说,这次发布会,除了澄清了铜缆和 CPO 会并用,主要就是新加入了一个服务器中新加入了 Groq 的 LPU 选项。这个在 Groq 被买后,市场已有充分预期;甚至指引的三年一万亿美金收入,市场实际其实也已经超过这个数字了。
整体上从英伟达的产品迭代可以看到:最近几年的迭代重心不再芯片微架构的创新,从 Hopper 到 Blackwell 解决主要是组合和连接的问题,英伟达主要是完成了卖芯片到卖系统和服务的切换。
而从 Blackwell 到 Rubin,无论是新加入的 DPU(NAND 芯片),还是这次新买来后紧急放进来的 LPU(SRAM),主要完成的是 AI 进入推理和 Agent 时代,内存墙的问题。
二、英伟达的近况:大会指引平淡,需要 " 成长性新故事 "
英伟达的股价表现,在近半年的时间内基本上一直都在 170-200 美元的区间内震荡。即便下游大厂增加资本开支、公司业绩持续超预期,公司股价也没能实现向上突破,主要是市场有以下几方面担心:
a)大厂资本开支持续性:Meta、谷歌等厂商都明确增加了 2026 年的资本开支,四大核心云厂商在 2026 年的资本开支有望达到 6600 亿美元以上,同比增长 60%。但值得注意的是,大厂资本开支在收入中的占比处于达到了相对较高的位置。
以 Mete 为例,公司预期 2026 年资本开支将达到 1150-1350 亿美元,资本开支 / 年度收入将达到 50% 以上,进一步提升的空间相对有限。即使各家大厂增加了 2026 年的投入展望,但依然难以打消市场对后续资本开支增长持续性的担心。
b)AI 芯片市场份额:当前英伟达在 AI 芯片市场的份额维持在 75% 以上,较高的价格和 " 近乎垄断 " 的市场结构,促使下游云厂商寻求 " 替代方案 "。
在谷歌之外,博通 AVGO 已经明确收获了 Anthropic、Open AI 等的大额订单,多个客户也都开启了自研方案。即便英伟达后续还有 Rubin 新品,但市场普遍预期公司在 AI 芯片市场的份额将逐步下滑。

英伟达在 Blackwell 系列中引入了 NVFP4 格式,能使推理性能在 FP8 的基础上再翻一倍。但其实 FP8 满足了当前市场大部分的需求,TPUv7 已经是一个 " 替代选项 "。
为了对抗行业竞争,英伟达正在通过战略投资和算力扩容,来锁死供应链上下游,比如说,以芯片部署为前提的战略投资 Open AI(300 亿美元)和 Anthropic(100 亿美元)、为 Meta 旗下全新 AI 实验室 MSL 提供数百万块 GPU 的算力支持,其中部分协议有一定的降价锁定客户需求的意味。

英伟达上季度交出了超预期的财报,但公司股价并未迎来上涨。这主要是因为 2027 年收入预期已经全部打进去后,市场担心下游云厂商在资本开支强度拉到 50% 以上的之后,进一步拉高资本开支的空间非常有限。
理论上,处于云厂商二级导上的英伟达,即使客户资本开支高位维持,英伟达来自云客户的收入会就变成零增长,市场不敢给 2027 年之后的英伟达高估值,导致英伟达当前只有 27 年利润 13X 的 PE,建筹的兴趣也不高。
结合本次 GTC 大会的内容来看,老黄给出的 " 至 2027 年数据中心累计入达到 1 万亿美元以上 ",其实市场预期早已拉到比这个数还更高一些。
会议中更多的时间,给到了英伟达的产品推销和路线规划,对产业链公司的影响更多(CPO 和铜仍将混合使用、LPU 与 HBM 分担不同的工作),对公司自身的增量信息并不多。
未来英伟达公司的 PE 再次提升,海豚君认为除了 AI 应用上能够更大规模、更快速度落地之后,还需要新的 " 成长曲线 " 来拉动,比如 "Physic AI"、" 太空算力 " 等。