文 | 互联网怪盗团
英伟达成为了全球第一家市值突破 4 万亿美元的公司,从而打破了苹果保持的纪录——后者是全球第一家市值突破 2 万亿美元、3 万亿美元的公司,以及第一家市值突破 1 万亿美元的科技公司。今年以来,苹果是美国科技巨头当中表现较差的,主要还是对生成式 AI 的应用不达预期,被寄予厚望的 Apple Intelligence 至少至今没有体现出冠军相。
时间过得真快!此时此刻,距离 DeepSeek R1 推出之后,英伟达一度大跌 16%,才只过去了不到半年。从那时起,英伟达的市值累计又增长了约 40%。当初市面上广为流传的 "DeepSeek 戳穿了英伟达泡沫 "," 算力将不再是瓶颈 ",乃至 "CUDA 已经被完美绕过 ",种种奇谈怪论犹在耳边,现在回忆起来仿佛弱智成年人的一场盛大狂欢。这再次说明科技行业的发展需要遵循客观规律,不以任何人的意志为转移。(当然,DeepSeek 是一个非常成功的大模型,其成功的一个立足点就是英伟达的软硬件一体化解决方案。)
英伟达的市值增长显然是业绩推动的:对于 AI 训练和推理算力的需求在短期内有增无减,即便我们不考虑智能机器人、自动驾驶等新兴领域的长期算力需求,眼前的需求也足以再支撑一段时间的高增长。至于英伟达目前的估值是否合理,那不是本文讨论的话题。在此我更关心的是:谁会成为英伟达之下的 " 第二名 "?哪怕第一名和第二名的差距有十倍,那第二名的日子也会非常滋润。何况第一名和第二名不一定是互相替代的关系,也可以是互补或平行关系。
显然,AMD 不太可能是那个 " 第二名 ",尽管从 2022 年至今,华尔街一直期待它扮演这个角色。AMD 的数据中心级 GPU 不但收入规模远小于英伟达,增速也远远不及,甚至在 2025 年上半年暂时陷入停滞。而且,这种差距不是出于供给问题——过去几个季度,经常有分析师问苏姿丰 " 你们的 GPU 是否存在供给瓶颈 ",得到的回答都是 " 不存在 "。许多客户宁可排队等待英伟达显卡,或者配置英伟达的上一代显卡,也不愿采购供给更充足的 AMD 显卡。AMD 相对于英伟达最大的优势是开源生态,因为英伟达至今仅在极小范围内开源了显卡驱动程序。遗憾的是,这一点优势不足以拉近二者的距离。
至于英特尔就更没有希望了。此时此刻,所有英特尔股东和老员工最想做的一件事情大概就是:退回到二十多年前,阻止当时的管理层关闭独立显卡业务;如果做不到,至少要在 2010 年前后重开,那是为数据中心级显卡业务打下基础的最晚时间节点。时间是不能倒流的,所以英特尔在这个问题上早已出局了。
有人会提到华为、阿里等名字。在此我无意讨论它们的显卡算力与英伟达是否有差距、性价比如何,但我只想指出一点:哪怕它们的产品在各方面均能与英伟达并驾齐驱,由于众所周知的原因,其市场主要将限于中国大陆,而且任何一家恐怕都难以独占国内市场。我们现在要讨论的是谁能当第二名,而仅仅占据半个或者四分之一个中国市场,尚不足以成为全球第二名。
迄今为止,我们的结论是:市面上的通用 GPU 厂商与英伟达的差距都远远超过了十倍。我知道有人会提到博通以及 ASIC 的名字,但是 ASIC 是一个集体概念,我们不能把整个 ASIC 加起来并声称其超过了英伟达。不过,这个思路是正确的:英伟达真正的挑战者(或曰互补者),只能到 in-house silicon 当中去找;所谓 in-house silicon, 就是科技大厂内部研发的定制芯片,它们构成了市面上所谓的 ASIC 的主力军。我不是这方面的专家,这个话题轮不到我下结论。但是从诸多迹象看来,我认为谷歌最具潜力。严格地说,谷歌的 TPU 正在超越传统的 ASIC 范畴,有成为一种广泛的通用计算产品的潜力。
OpenAI 正在使用谷歌 TPU 提供算力支持,这是前几天非常热门的新闻。Meta 也与谷歌展开了合作,尽管它也有自己的 TPU。我们知道,算力产品的竞争从来就不止局限于硬件层面,如果只看硬件,市面上貌似超过了英伟达旗舰产品的硬件非常多,就连英伟达自己的低线产品往往也能超过旗舰产品——这就是某些半吊子分析师和博主常犯的错误。在可见的未来,没有人能 " 击败 " 英伟达;但是,如果你想对英伟达实现部分替代和补充,还是做得到的,而那一定是以 " 生态系统 " 的方式,而非单纯堆砌硬件的方式做到。
而谷歌的优势就在于一体化生态。事实上,TensorFlow 社区的发布时间,比初代 TPU 还要早半年。2023 年以前,TensorFlow 一度是最流行的深度学习框架,远远超过 Meta 旗下的 PyTorch;但是 2023 年以后形势逆转了,PyTorch 后来居上。当时,许多大模型从业者对我感叹,谷歌的整个深度学习帝国有倾覆之势:TPU 的使用范围有限,TensorFlow 的社区维护和易用性远远落在 PyTorch 之后,而大模型本身(当时还不叫 Gemini, 叫 Bard)也被 OpenAI 乃至 Claude 拉出了好几个身位。有一位朋友告诉我,这些竞争都是彼此相关的—— Bard 竞争不过 OpenAI,TensorFlow 竞争不过 PyTorch, Bard ( Gemini ) 竞争不过 GPT。他认为一个关键指针是 OpenAI 的选择:只要 OpenAI 不选择 TPU,就证明 TPU 的技术路线有问题。
现在形势出现了转折,OpenAI 竟然真的在一定程度上使用了 TPU!尽管我相信,它的绝大部分算力还是基于英伟达平台。差不多同一时间,Gemini 也在大幅拉近与 GPT 的差距,真正进入了第一梯队。2024 年上半年还风雨飘摇、乏善可陈的谷歌生成式 AI 体系,经过这一年多的调整,稳住了每一条战线并有了很大进步。这一方面应该归功于谷歌在深度学习领域的深厚积累,另一方面要归功于现任管理层(以及重出江湖的创始人)的及时调整。至于哪一个因素更重要,在外部的我们不得而知。
在稳住战线并确保技术路线正确之后,谷歌的体量和资源优势可能将成为胜负手。就像在第二次世界大战当中,只要渡过了前期措手不及的参战期,苏联和美国的体量就被证明是难以击败的。不要误会,我不是说英伟达的体量不够大;我的真实意思是,谷歌具备的财务资源、基础研发能力和生态系统的 " 三位一体 ",将是它在整个生成式 AI 长跑当中取胜的关键。这场长跑既包括算力,也包括云服务和开发环境,还包括大模型本身。
接下来,我们可能会目睹一个 " 正循环 ":Gemini 的性能持续增强(甚至有一天成为最强的大模型),促使第三方客户更有动力使用 TPU(因为在 Gemini 上面得到了验证),这两者加起来又会促使 TensorFlow 社区迎来复兴。其实上面三条做到一条就很了不起了,若三条都能做到,对谷歌来说简直是梦幻般的成就。现在还只走了一小步,但是至少在算力这个方向上,谷歌已经明显有可能超过 AMD 的高度,甚至可能已经超过。
谷歌最近一年多的大转折,再次证明了一点:从互联网时代成长起来的科技巨头,普遍带有很强的韧性。它们可能因为一时的决策失误、执行力低下或经济环境问题而蒙受惨重损失,乃至被资本市场宣判 " 死缓 ";可是只要悬崖勒马,它们往往能在几个季度内赶上来。过去四年,我们已经先后看到奈飞、Meta 和谷歌上演这一幕 " 先抑后扬 " 的大反转了。一家科技巨头若真的要衰落,那必须像雅虎那样,连续犯下多个难以饶恕的错误、错过多个风口才行。
我再强调一次:我们现在讨论的不是 " 谁能替代英伟达 ",这样的公司很可能还没被创办出来;而是 " 谁能成为英伟达之后的第二名 ",因为 AMD 与它的差距实在太大,大到难以相提并论。如果谷歌能凭借 TPU 成为英伟达之后的 "AI 算力第二名 ",那么哪怕对于它这个体量的公司而言,也是一笔弥足珍贵的增量。目前的不确定性因素还太多,我们只能说它具备这样的潜质,什么时候兑现还不好说。
本文作者目前并不持有谷歌和英伟达的股份,但是很有可能透过基金持有,因为众所周知,此类基金几乎不可能不配置谷歌和英伟达。