关于ZAKER 合作
爱范儿 18小时前

英伟达市值剑指五万亿大关,Blackwell 领跑,Rubin 接力,AI 基建即将迎来需求爆炸

皮衣战神,又双叒叕来「砸场子」了!在昨天刚刚过去的 GTC 2025 秋季场,黄仁勋的演讲又一次让英伟达坐稳了芯片第一龙头的位置,整场发布会,堪称火力全开。

芯片龙头的实力,战绩可查

英伟达在大会上释放出极其强劲的营收信号,再次巩固了其在全球 AI 计算领域的绝对领先地位。其中,Blackwell 平台无疑是本次 GTC 的绝对焦点,其大规模部署速度前所未有。

黄仁勋透露,Blackwell 平台在开始生产的仅仅五个季度内,预计将出货高达 600 万个处理器单元,增长速度是上一代 Hopper 平台的五倍,标志着全球 AI 基础设施的部署已进入超高速增长期。

这样惊人的出货量,充分反映了市场对 Blackwell 架构高性能与高能效的迫切需求,尤其是在训练万亿级参数模型和大规模推理应用中。

根据演示,Blackwell 平台在运行推理模型时,相比 Hopper 实现了九倍的速度提升。这一性能飞跃将大型语言模型(LLM)的响应时间大幅压缩,极大提升了用户体验并解放了计算资源。

在 AI 大规模应用的运营成本方面,英伟达承诺通过「极致协同设计」(extreme co-design)来显著降低 AI token 的生成成本,解决 AI 工厂的核心运营痛点。目前,Grace Blackwell NVLink 72 在生成 token 方面,成本是全世界最低的。性能提升 10 倍,同时成本降低 10 倍。

基于 Blackwell 平台及其后续的 Rubin(Vera Rubin 超级芯片平台)的初期加速部署,英伟达预计到 2026 年,这两个新平台的累计营收将有望达到 5000 亿美元。

如此雄心勃勃的财务目标,底气来自于英伟达对于 AI 基础设施的年度更新战略,以每年一代的速度推出计算平台,以应对业界对更大规模、更高性能 AI 模型训练和推理的需求。

黄仁勋强调,这 5000 亿美元的数字不仅代表着芯片单元的销售,更反映了全球计算基础设施正加速向英伟达的加速计算模型转型,这标志着一个万亿美元计算拐点的到来。

超级芯片的未来计算版图

一方面,Blackwell 平台正在推动 AI 浪潮;另一方面,英伟达的目光已投向更远的未来:下一代 Vera Rubin 超级芯片纳入战略版图。

Vera Rubin 超级芯片延续了集成 CPU 和 GPU 的超级芯片设计理念,其中 Vera 作为定制的 CPU,而 Rubin 则作为下一代 GPU。

技术细节显示,Vera Rubin 将带来跨越式的性能飞跃:相比 Grace 平台,Vera 组件将提供 4.2 倍的内存容量和 2.4 倍的内存带宽。

它将容纳 6 万亿个晶体管,能够提供高达 100 Petaflops ( PF ) 的 AI 计算性能,并配备 2 TB 的高速缓存 / 快速内存。这些核心参数表明,Vera Rubin 在应对万亿级参数模型和极大规模 AI 推理任务时,将实现 Blackwell 代际无法企及的效率和速度。

作为 Blackwell 的继任者,Vera Rubin 和 Blackwell 将共同构成英伟达高达 5000 亿美元的营收,象征着公司对未来计算架构的持续迭代和投入。

在此宏大计算战略下,英伟达同时公布了两项重量级合作。首先是推出了 NVQ Link 互联架构,专为量子处理器(QPU)与英伟达 GPU 超级计算机之间的高速混合模拟而设计,实现了微秒级的计算延迟。

该技术已获得 17 家量子计算机公司和八个美国能源部(DOE)国家实验室的支持,标志着量子计算和经典 AI 计算的深度融合。

6G 来了?给诺基亚重新「抬咖」

另外一项重量级合作,则是在通信基础设施领域:英伟达宣布与电信巨头诺基亚建立深度战略合作伙伴关系,共同开发下一代 6G 技术。

诺基亚未来将采用英伟达的 ARC 平台 作为其基站核心,该平台兼容诺基亚现有的 AirScale 基站,意味着全球数百万个基站可通过英伟达技术升级至 6G 和 AI 能力。

这项合作聚焦于两大关键方向:其一是 AI for RAN(AI 赋能无线接入网)。诺基亚拥有 7000 项基础 5G 专利,结合英伟达的 AI 技术,将利用人工智能和强化学习实时调整波束成形,优化环境下的频谱效率。

考虑到无线网络消耗了全球约 1.5% 至 2% 的电力,提高频谱效率不仅能增加数据吞吐量,同时也是一项至关重要的能源节约举措。

另外,AI on RAN 则将无线网络转变为一个「边缘工业机器人云」。正如 AWS 建立在互联网之上,英伟达和诺基亚正将云计算能力扩展到基站边缘,创造出一个全新的、超低延迟的计算环境。这对于需要实时决策和响应的工业机器人、自动驾驶车辆和边缘 AI 应用至关重要,开启了一个潜力巨大的边缘计算新市场。

AI 即工作,时代在召唤

「如同电力和互联网一样,人工智能是至关重要的基础设施。」

这个观点不新鲜了,但是黄仁勋又强调了一遍。他指出,当前时代的变革始于一个关键观察:Dennard 缩放定律(Dennard scaling)已停止近十年,晶体管的性能和功耗增益受到物理定律的限制,传统摩尔定律的红利正在消退。

这种现实使得加速计算这一全新计算模型成为必要,它通过 GPU 和 CUDA 编程模型,利用不断增长的晶体管数量来实现并行计算,突破了通用 CPU 的性能瓶颈。黄仁勋强调,CUDA 编程模型的兼容性维护是英伟达的「宝藏」,经过近三十年的发展才得以实现如今的成就。

「AI 不是工具,AI 就是工作本身」(AI is not a tool. AI is work.),黄仁勋给出了大胆的论断,暗示着, AI 已升级为直接的生产力要素,将注定是驱动经济增长和创新的核心力量。

相关标签

最新评论

没有更多评论了