关于ZAKER 合作
芯东西 29分钟前

史上最大 AI 芯片,要 IPO 了!刚拿下千亿大单

已扭亏为盈。

作者 | ZeR0

编辑 | 漠影

芯东西 4 月 18 日报道,今日,美国 AI 芯片独角兽Cerebras Systems披露 IPO 申请文件,再度向上市发起冲刺,股票代码为 "CBRS"。

自从端出餐盘大小的全球最大芯片后,这家成立于 2016 年的明星创企一直备受关注。

最新 IPO 文件显示,Cerebras 业绩涨势迅猛,营收从 2022 年的 2460 万美元(约合人民币 1.68 亿元)增至 2025 年的 5.10 亿美元(约合人民币 35 亿元),增长超过19 倍;2024 年净亏损为 4.82 亿美元(约合人民币 33 亿元),到 2025 年已实现扭亏为盈,净利润达2.38 亿美元(约合人民币 16 亿元)

Cererbas 打造了全球首创且唯一的商业化晶圆级处理器——晶圆级引擎(WSE),并声称其第三代 AI 芯片 WSE-3 是 "史上大批量推向市场的最大、最快 AI 芯片"。

WSE-3 集成了90 万个计算核心、44GB片上内存和21PB的内存带宽,面积是英伟达 B200 的58 倍

与包含两颗独立芯片的英伟达 B200 封装相比,WSE-3 拥有19 倍的晶体管、250 倍的片上内存容量和2625 倍的内存带宽。

Cererbas 的竞争对手包括提供 AI 芯片的英伟达、AMD、英特尔等芯片巨头,以及提供 AI 推理服务的 AWS(亚马逊云科技)、谷歌、甲骨文、CoreWeave 等云服务商。

OpenAI、AWS、阿联酋科技公司 G42、阿联酋人工智能大学 MBZUAI,都是 Cerebras 的重要客户。

官网显示,高通、AMD、台积电等芯片巨头,特朗普长子担任合伙人的1789 Capital,以及OpenAI 联合创始人兼 CEO Sam Altman、英特尔 CEO 陈立武等知名企业家,均是 Cerebras 的投资方。

Cerebras 曾在 2024 年 9 月递交 IPO 申请,随后于去年撤回。在今年 2 月完成 10 亿美元(约合人民币 68 亿元)H 轮融资后,其估值达到 230 亿美元(约合人民币 1568 亿元)。

如今,Cerebras 重启上市路。据外媒报道,该公司 IPO 计划于 5 月中旬进行,目标募资超过 30 亿美元(约合人民币 205 亿元),并寻求至少 350 亿美元(约合人民币 2386 亿元)估值。

01.

去年营收大涨 76%,净赚 2.38 亿美元

2022 年、2023 年、2024 年、2025 年,Cerebras 全年营收分别为 2460 万美元、7870 万美元、2.90 亿美元、5.10 亿美元;净利润分别为 -1.78 亿美元、-1.27 亿美元、-4.82 亿美元、2.38 亿美元,研发费用分别为 1.55 亿美元、1.40 亿美元、1.58 亿美元、2.43 亿美元。

▲ 2022 年 ~2025 年 Cerebras 营收、净利润、研发支出变化(芯东西制图)

同期,其毛利率分别为 11.7%、33.5%、42.3%、39.0%。

Cerebras 的 2024 年与 2025 年 GAAP 净利润与非 GAAP 净利润如下:

截至 2025 年 12 月 31 日,该公司累计亏损为9.05 亿美元。下表是截至 2025 年底的现金及现金等价物和总资本:

分业务来看,2025 年,Cerebras 的硬件收入占比约为 70%,云服务及其他服务收入占比接近 30%。

下表是 Cerebras 从 2024 年 Q1 到 2025 年 Q4 每个季度的财务数据,可以看到 2025 年扭亏为盈主要是靠在 2025 年 Q2 实现约 3.10 亿美元的净利润。

02.

跑千问、GLM、MiniMax 开源模型,

推理速度比 GPU 方案快

Cerebras 研发 AI 芯片的思路是,通过把整个计算和存储资源放在一块巨型芯片上,来破解数据搬运耗时耗能的瓶颈。

因为核心之间的通信是在片上互连,延迟低到几乎可忽略。这意味着 WSE 能更快地生成 token。

WSE-3 部署在 CS-3 系统内,多个 CS-3 系统连接起来可形成 Cerebras AI 超级计算机,作为单个逻辑计算机进行大规模训练和推理。

WSE 芯片由制造巨头台积电代工生产、封测大厂日月光处理特殊工艺,最终在 Cerebras 位于美国加州桑尼维尔的工厂进行最终晶圆封装、组装和测试。

IPO 文件显示,根据基准测试,对于许多工作负载,Cerebras 运行 Llama、GPT-OSS、GLM、MiniMax、Qwen 等开源模型的速度比基于 GPU 的领先解决方案快15 倍;在一些更特殊的工作负载中,Cerebras 的速度快1000 多倍

截至 2025 年 12 月 31 日,Cerebras 共有 708 名员工,其中 426 名在美国。

截至 2026 年 3 月 31 日,该公司在全球范围内拥有 96 项已授权专利和 50 项正在申请的专利。

03.

中东是大金主,

OpenAI、AWS 都是客户

Cerebras 以多种方式向客户交付解决方案,既提供 AI 超级计算机,又提供云上高速推理服务,还与客户共同开发 AI 产品。

其收入和净利润的增势之猛,跟中东有着密切关系。

2024 年,阿布扎比科技集团 Group 42 Holding Ltd 连同其附属公司 G42 贡献了 Cerebras 高达85%的营收。

2025 年,阿联酋人工智能大学 MBZUAI 贡献了 Cerebras 62% 的营收,G42 贡献了 24%,两家合计贡献了86%的营收。

这表明过去两年,Cerebras 超过8 成的收入都来自中东,这也是其 2025 年扭亏为盈的核心贡献来源。

一大波变化发生在 2026 年。

1 月,Cerebras 宣布跟 OpenAI 达成一个价值超过200 亿美元(约合人民币 1363 亿元)的多年协议,为 OpenAI 提供 750 兆瓦的 AI 算力,从 2026 年到 2028 年分批部署。OpenAI 还同意向 Cerebras 支付10 亿美元(约合人民币 68 亿元),以资助开发运行其 AI 产品的数据中心。

3 月,Cerebras 与 AWS 建立多年合作伙伴关系,通过全球分销将快速推理扩展到更大的规模。

这些合作如果能顺利执行,Cerebras 接下来三年的收入基本不用愁。

04.

多位核心高管曾任 AMD 副总裁

截至今年 4 月 17 日,Cerebras 高管与董事信息如下:

其联合创始人兼 CEO Andrew Feldman 毕业于斯坦福大学,曾在 2012 年以 3.57 亿美元将服务器创企 SeaMicro 卖给 AMD,随后担任 AMD 副总裁兼总经理。

另一位联合创始人 Sean Lie 毕业于麻省理工学院,自 2022 年 4 月起担任 Cerebras CTO,曾担任 AMD 数据中心服务器解决方案首席硬件架构师。

Cerebras COO Dhiraj Mallick 也毕业于斯坦福大学,曾担任英特尔数据中心事业部架构副总裁、AMD 副总裁兼服务器解决方案部门总经理。

2025 年,Cerebras 提供给 Andrew Feldman 的总薪酬为 1175 万美元,给 Sean Lie 的总薪酬为 1157 万美元。

05.

结语:" 非 GPU" 企业起势,

火拼 AI 推理市场

AI 芯片行业正在发生一个有趣的变化,越来越多的公司选择用 " 非 GPU" 的路径,跟英伟达争夺 AI 推理市场的地盘。

英伟达斥资 200 亿美元买走技术授权和大部分团队的 Groq,以及即将上市的 Cerebras,都属于这一阵营。

Cerebras 强调自家产品的核心优势,是在需要实时响应的场景里推理速度快,远超英伟达 GPU。

但英伟达坚不可摧的护城河是软件生态,是全球开发者和企业经年累月积累的代码、工作流、工具链。

Cerebras 的硬件再快,要在生态层追赶英伟达,仍是一场长跑。

芯圈 IPO

深度追踪国内半导体企业 IPO;在国产替代的东风下,一批优秀的国内半导体公司正奔赴资本市场借势发展。

作 者

芯东西

芯东西

芯东西专注报道芯片、半导体产业创新。

订阅

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容