
编辑丨铅笔道 邹蔚
封面图丨 ChatGPT 生成
市值 5.5 万亿美元的英伟达,迎来了强劲对手。
马上,芯片公司 Cerebras 就要在纳斯达克 IPO。它的 IPO 价格定为 189 美元,募资 55.5 亿美元,估值达到 564 亿美元(约合人民币 3800 亿元)。
这是今年以来全球规模最大的 IPO,也很可能是整个上半年最大的 IPO。
Cerebras 为啥这么热?因为它试图挑战英伟达算力芯片霸主的身份。
Cerebras 真的有一门绝技。
英伟达、AMD 的 GPU,是把一整块晶圆切割成很多小芯片再封装。Cerebras 反过来,它直接把一整块 12 英寸晶圆,当成 " 一颗巨型芯片 " 用来做 AI 推理。
这是人类历史上最大的芯片,OpenAI 下了 100 亿美元的订单。
来,看下它是怎么玩的。
暴力思维,解决老大难问题
Cerebras 成立于 2016 年,总部位于美国加州森尼维尔(Sunnyvale)。它的核心业务,是做 AI 训练与推理芯片,以及配套服务器和云服务。
公司最核心的产品叫:Wafer-Scale Engine(WSE,晶圆级引擎)。目前已经做到第三代 WSE-3。
这块芯片有多夸张?
传统 GPU 大概 " 邮票 " 大小。而 Cerebras 的 WSE,是 " 一整张晶圆 ",跟餐盘差不多。它拥有约 4 万亿晶体管、超过 90 万个 AI 计算核心,整块晶圆作为单芯片运行。
它试图解决一个 AI 行业越来越严重的问题:GPU 集群越来越像拼积木。
现在训练大模型,需要几千块、甚至几万块 GPU,再通过高速网络连接。
但 GPU 越多,通信延迟越高。很多时候,大模型不是算不动,而是卡在通信上。
Cerebras 的思路非常激进:不要拼很多 GPU,我直接做一个超级大芯片。它把计算、存储、网络通信全部做到一整块晶圆上。数据不需要在很多 GPU 之间频繁搬运。
这么做优势很明显:延迟低、功耗更低、训练和推理速度更快、超大模型更容易扩展。
它被称为英伟达 GPU 体系之外,最另类的一条路线。
这种脑洞大开的想法,怎么来的呢?这就不得不提提创始人了。
创始人安德鲁 · 费尔德曼(Andrew Feldman)是一位连续创业者,在创办 Cerebras 之前曾联创办 SeaMicro ——这是一家做低功耗服务器的公司。
2012 年,SeaMicro 被 AMD 以约 3.34 亿美元收购。
他后来意识到,深度学习的数据移动成本越来越高。如果 AI 时代继续沿用 CPU/GPU 的小芯片拼接模式,迟早会遇到瓶颈。
于是他决定干一件业内很多人觉得不可能的事:做晶圆级芯片。
业内说他疯了。因为你如果做成一整块芯片:只要有一个地方坏了,整个芯片可能报废。这也是为什么晶圆一定要切割。
费尔德曼又一次逆向思维:我虽然做不到让整块芯片没有一点瑕疵,但我可以在让系统在工作时,看到瑕疵绕开,只在好的区域工作。
2019 年,Cerebras 发布第一代晶圆级芯片。这事,居然给他们干成了。
Cerebras 融资总额大概在 25 亿至 30 亿美元之间,放在 AI 芯片创业公司里算比较多的。最后一轮融资后估值是 230 亿美元。就在上市前一天,估值调整为 564 亿美元。
收入飙升,客户又下了 246 亿美元订单
Cerebras 大放异彩是最近两年的事:AI 推理越来越重要。
Cerebras 最大卖点是 AI 推理芯片。它正在把自己定位成 GPU 之外的 AI 推理替代方案。因为它超大单芯片、超高内存带宽、少 GPU 通信开销,推理延迟特别低。
Cerebras 营收从 2022 年 2460 万美元飙升至 2025 年 5.10 亿美元,四年增长超 19 倍,其中 2025 年同比大增 76%;净利润从 2024 年净亏损 4.82 亿美元,转为 2025 年盈利 2.38 亿美元,成功实现扭亏为盈。
AI 硬件公司里,能做到 Cerebras 这种增长速度的,非常少。
但它的收入高度集中。2025 年 86% 收入来自两个中东客户 G42、MBZUAI。
G42 是一家阿联酋主权基金控股的科技公司,MBZUAI 是阿联酋的穆罕默德 · 本 · 扎耶德人工智能大学。MBZUAI 一家就占了 62%。
这意味着 Cerebras 现在并不是市场全面铺开,而是被少数超级客户喂大的。
为什么会出现这种收入结构?因为 Cerebras 卖的不是标准芯片。它卖的是整套 AI 超算系统。包括:WSE 芯片、服务器、网络、软件、数据中心部署、AI 推理设施。
它天然适合国家 AI 项目、超算中心、大模型公司这样的超大项目。刚好,阿联酋想做主权 AI 国家,拥有独立 AI 基础设施,拥有自己的 AI 集群。
Cerebras 收入增速不是最令人震惊的。最令资本市场震惊的,是 Cerebras 积压订单高达 246 亿美元。一家收入 5.1 亿美元的公司,宣称自己有 246 亿美元的收入在等着自己。
等于说 AI 行业正在从卖芯片,变成提前下单 token 吞吐能力。
这些订单是谁下的呢?
大头是 OpenAI 出的,而且 OpenAI CEO 奥特曼本人就是 Cerebras 的早期投资人。
OpenAI 和 Cerebras 签了 750MW AI 算力协议,保守估计也在 100 亿美元之上,实际承诺可能超过 200 亿美元。双方协议签到了 2028 年。
OpenAI 还可能向 Cerebras 提供约 10 亿美元资金支持数据中心建设。未来可能持有 Cerebras 最高约 10% 股份。双方关系已经不只是客户—供应商,而更像联合建设 AI 基础设施。
以前,很多美国媒体虽然觉得 Cerebras 技术很酷,总会加一句:缺乏真正的大客户。但 OpenAI 签单之后,一切都变了。
还有一个客户,上面提到的 G42。246 亿美元订单里,G42 很可能仍占数十亿美元级别。但公开文件没有具体金额。
挑战英伟达?且慢
Cerebras 到底能不能挑战英伟达?这是投资人、AI 行业都非常关心的。
先下结论:它离真正挑战英伟达,仍然很远。
真正的问题,不是 Cerebras 的芯片够不够强,而是英伟达早已不是一家芯片公司。
英伟达最大的护城河,并不仅仅是 GPU 本身,而是 CUDA 软件生态。今天全球绝大部分 AI 框架、训练系统、推理工具、工程库,几乎都围绕 CUDA 构建。很多企业并不是只能买英伟达,而是离不开 CUDA。而 Cerebras 的软件生态成熟度,目前仍远弱于 CUDA。
更关键的是客户结构。
目前 Cerebras 的收入高度依赖少数大客户,这意味着,它更像一家超级项目制公司,而不是已经建立广泛生态的平台型企业。
此外,行业里还有一个现实问题:AI 硬件并不存在唯一正确路线。哈佛等机构今年发布的一项 AI 加速器研究指出,不同 AI 工作负载下,最佳硬件平台并不相同。Cerebras、Groq、TPU、Gaudi、GPU 各有适合场景。换句话说,Cerebras 可能会在某些推理场景里明显优于 GPU,但这并不意味着它能全面替代英伟达。
英伟达已经形成了极强的供应链控制力。现在 AI 行业真正稀缺的,不只是 GPU,而是 CoWoS 先进封装、HBM 显存、电力、数据中心、网络设备。而英伟达几乎已经深度绑定台积电先进封装产能、美光的存储、海力士 HBM。这意味着即使 Cerebras 架构成立,它也仍然需要依赖同样的供应链体系。
此外,Cerebras 的商业模式,本身也决定了它很难像英伟达那样规模化。英伟达卖的是标准化产品。但 Cerebras 更像超级定制化项目,天然更重、更慢、更依赖大客户。
本文不构成任何投资建议。