关于ZAKER 合作
钛媒体 7分钟前

黄仁勋最新深度分享:英伟达的护城河、TPU 威胁与生态建设

文 | 强调 Next

日前,英伟达 CEO 黄仁勋接受了知名科技主持人 Dwarkesh Patel 的专访,全程 103 分钟。采访一开篇,主持人 Dwarkesh Patel 就抛出了一个犀利的问题:英伟达本质上只是在写软件,芯片由台积电代工,内存由 SK 海力士和三星提供,组装交给台湾 ODM。如果软件被 AI 商品化,英伟达会不会也被商品化?

黄仁勋给出了他对英伟达最精炼的自我定义:" 输入是电子,输出是 Token,中间是英伟达。"

他解释说,把电子转化为 Token 并让这些 Token 持续增值,这件事本身难以被商品化。英伟达的职责是 " 做必要的,外包可外包的 ",自己不需要做的事情,全部交给生态伙伴;但真正核心的部分," 难得令人难以置信 "。

他还反驳了软件公司会被 AI 消灭的悲观论:他认为 AI Agent 数量会指数级增长,工具调用量也会随之暴增。Synopsys、Cadence 这类工具软件,需求反而会因为 AI Agent 的普及而大幅上升:" 现在的瓶颈不是工具,而是工程师数量不够用 "。

01 · 供应链护城河:2500 亿美元的承诺与 " 预取瓶颈 " 策略

外界分析机构 SemiAnalysis 披露,英伟达对晶圆厂、内存和封装厂的采购承诺总额可能高达 2500 亿美元。

黄仁勋并不否认这是英伟达护城河的一部分,但他解释了背后的逻辑:英伟达的上游供应商之所以愿意为英伟达做巨额投资,是因为他们相信英伟达有足够强大的下游需求来消化产能。这种相互信任并不靠合同维系。他以英伟达和台积电的关系为例,双方甚至没有正式法律合同,靠的是 " 数十年的信任与公平互惠 "。

他以封装技术 CoWoS 为例说明 " 瓶颈会被市场力量快速填平 ":两年前 CoWoS 是行业最大瓶颈,后来整个行业集中力量解决,现在已经基本不再是问题。台积电现在已经把 CoWoS 产能的扩张与逻辑芯片产能绑定同步推进。

黄仁勋提出了一个核心策略:" 预取瓶颈 "(prefetching the bottlenecks)——英伟达提前数年布局可能出现的供应链卡点。他举例说,英伟达多年前就开始投资硅光子生态(Lumentum、Coherent 等公司),如今这一布局已经重塑了整个供应链结构。

他坦言,他真正担心的瓶颈不是芯片或封装,而是能源政策。" 你不能在没有能源的情况下建设新工业。不论是 AI 工厂、芯片制造还是机器人产线,能源基础设施的建设周期比芯片产能长得多。" 他认为,美国的再工业化愿景(芯片制造、AI 数据中心、电动车、机器人)最大的制约都是电力供应,而这是几年内无法解决的问题。这也是英伟达为何如此执着于提升每瓦性能的根本原因。

02 · TPU 威胁:谷歌和亚马逊的定制芯片真的能替代 GPU 吗?

Patel 指出,目前全球顶尖 AI 模型中,Claude 和 Gemini 均在 TPU 上训练,这对英伟达意味着什么?

黄仁勋的回答非常有条理。他首先拉开了概念上的距离:英伟达做的是 " 加速计算 ",不是 " 张量处理单元 "。加速计算的应用场景远不止 AI,还涵盖分子动力学、量子色动力学、流体力学、粒子物理等科学计算领域。TPU 或任何专用 ASIC 的市场覆盖,都无法与英伟达相比。

对于 "AI 只是矩阵乘法,TPU 天然更适合 " 的论点,他的反驳很有力,他认为,矩阵乘法是 AI 的重要组成,但并非全部。新的注意力机制、混合 SSM 架构、扩散模型与自回归融合,所有算法创新都需要一个足够通用可编程的底层架构。AI 进步的核心动力是算法的演进,而算法演进需要灵活的硬件。

他还以 Hopper 到 Blackwell 的跨代提升举例,性能提升了 30 至 50 倍,这远超摩尔定律能给出的 25% 年增速,完全依赖于算法和软件层的协同创新(比如 MoE 架构的并行化),而这正是 CUDA 可编程性带来的优势。

03 · CUDA 护城河:数亿规模的安装基础是最大的隐形壁垒

CUDA 的真正护城河在于生态的广度和安装基础的规模。英伟达目前在外流通的 GPU 超过数亿块,从 A10、A100、H100 到最新的 Blackwell 系列,遍布每一朵主流公有云,谷歌、亚马逊、微软 Azure、甲骨文 OCI 全部都有。

黄仁勋的逻辑是,软件开发者最在乎的是 " 安装基础 ",你写的代码能跑在多少机器上,这才是真正的价值。Triton、vLLM、SGLang 等框架,英伟达都大量贡献了优化代码;RL 训练领域新兴的 verl、NeMo RL 等框架,也都首先在 CUDA 生态上爆发。这种 " 生态厚度 " 不是单纯的技术竞争,而是网络效应壁垒。

他也承认了一个现象:为何 Anthropic 选择了谷歌 TPU 而非英伟达?他解释说,这背后是商业投资逻辑,谷歌和亚马逊向 Anthropic 投入了数十亿美元,芯片使用只是投资条款的一部分。英伟达在当时没有能力(也不具备做法人投资的哲学)提供类似的 " 算力换股权 " 安排。

04 · 为何英伟达不做云服务商?

这是一个有趣的问题:为何英伟达不直接变成超大规模云服务商,跳过中间商?

黄仁勋的答案清晰直接:英伟达的商业模式建立在 " 赋能运营商 " 上,而不是成为运营商本身。英伟达的芯片能让任何公司运营,包括高校超算、企业私有云、礼来药厂的药物研发平台、马斯克的 xAI 集群等等,这种通用性是核心竞争力。一旦英伟达变成超大规模云厂商,就与现有的所有云客户变成竞争关系,自毁生态。

他明确表示,英伟达永远不会搞 GPU 拍卖式定价,也不会成为 hyperscaler。

05 · 结语:单一架构策略的背后逻辑

采访最后,Patel 问及英伟达为何坚持单一芯片架构而不针对不同场景推出多条产品线。黄仁勋的答案与他一贯的思维一致:异质化架构会分裂生态,让软件开发者面对碎片化问题;而单一可编程架构配合层次丰富的软件栈,才能保持生态凝聚力。

这场采访展示了黄仁勋一以贯之的战略思维:不争一城一地,而是掌控生态演化的节奏。无论是供应链布局、CUDA 生态、还是定价哲学,英伟达的护城河都不是某个单点优势,而是一个自我强化的飞轮——下游需求越大,上游供应链越愿意投资;生态越厚,开发者越不愿意迁移;算法创新越快,可编程性的价值就越高。

相关标签

相关阅读

最新评论

没有更多评论了

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容