
先是答应甲骨文一起投 3000 亿美元共建数据中心,又从英伟达那里拿了 1000 亿美元买芯片,直到上个月,他们还在管 AMD 要股票掏芯片。。。
在各大科技巨头的齐心协力下,AI 泡沫眼看靠着 GPU 的买卖越吹越大。但最近,微软 CEO 萨蒂亚 · 纳德拉突然在一场气氛堪比《再见爱人》的三方会谈里,杀出来泼了一盆冷水。

缺电,正在卡着 AI 的脖子。
那么问题来了,美国的电,到底都去哪了?
一方面,是 AI 自己确实太能吃了。

而且 AI 吃相还很难看,利用率极低,可以说是连吃带拿。
电能利用效率 PUE ( Power Usage Effectiveness ) ,是衡量数据中心能效的重要指标。它的计算方法很简单,就是用数据中心总耗电量,除以服务器耗电量。

另一方面,是美国老旧的电力系统实在太完蛋,本来产的就不多。再挤一挤,基本民生都危险。
从美国劳工统计局的统计图就能看出来,2021 到 2022 电费飙升。训练 GPT 的同时,正常居民用电已经被挤兑了。
2000 至 2025 年美国电价趋势

这很难评,我只能祝他成功了。
没有电,科技巨头抢购来再吊的 GPU,也只能在机房落灰。而很快,它们面临的困境,将是更致命的过期。
芯片的保质期,会随着下一代芯片大规模量产出货逐渐来临。

但这几款芯片说实话,都是 22 年以前发布的老东西,也就占了个产能的优势,根本不是现在最好最新的芯片。它们的后面,还有 23 年的 H200,24 年的 B200,25 年的 B300,都等着上桌呢。
而根据 TrendForce 咨询公司今年 7 月的预估,2025 全年,Blackwell 系列的出货比例,将达到 NVIDIA 高阶 GPU 总产量 80% 以上,产能大大提升。

这带来的不仅仅是浪费,还会影响 AI 公司最在意的股价。要知道,AI 公司的股价估值,一定程度就建立在 GPU 数量、GPU 需求量的基础上。
底层逻辑是,按照现在的大模型规模定律,你用的 GPU 越多,模型越大,越好用,在市场上越有优势。这也是为啥一出买卖芯片的消息,几家科技巨头的股价就手拉手开涨。

实在没招了,科技公司只能纷纷走上 " 自救 " 的道路。毕竟芯片收购不能停,你不买有的是人买,但多余的电也是真没有。
良心点的做法,是到处修发电厂。像 OpenAI 和甲骨文在德州合建天然气发电厂,xAI 也在田纳西大力基建,结果把发动机都给搞缺货了,订单直接排到 2029 年后。

于是还有一种死道友不死贫道的路子 —— 把数据中心搬到国外。
墨西哥、智利还有一些南非国家,都成了 AI 发展的输电泵。可这些地区电力供给本来就不发达,现在更是雪上加霜。
在爱尔兰,数据中心消耗了全国 20% 的电力,停电、耗水,都对当地居民生活和生态环境造成了影响。

把芯片用卫星送上天,周边围上一圈太阳能电池板,就能获得 24 小时不间断的能源供给。
散热全靠真空热辐射,也不用担心水资源减少和环境变暖,听起来还挺不错。

和匆匆忙忙的美国形成鲜明对比,我们的情况就要从从容容很多了。
2024 年,我国数据中心总耗电量已经达到 166 太瓦时,占社会用电量约 2%。
作为远近闻名的基建狂魔,咱在保障大家生活的前提下,电力不止够用,甚至还在追求绿电,降碳排。

总的来说,盘完缺电的 AI,原来科技的尽头不是电子和计算机,而是物理、航天和土木工程啊。

照这么发展下去,未来高科技公司的衡量标准,也许不再是看谁芯片多。
而是看谁能抢到最多的电,让自家机房的灯能一直亮下去了。
撰文:莫莫莫甜甜


