
在过去的几十年时间里,Arm 其实一直扮演着全球半导体行业的 " 军火商 " 角色。它虽然给各个厂商提供底层指令集架构和 IP 授权,但是却一直没有下场参战,而是坐看各个芯片厂打得热火朝天。
稳坐钓鱼台的好处是不会被各个厂商视为竞争对手,无需在意竞争压力。即使是主导 x86 架构的英特尔、AMD,其实也有不少 Arm 芯片研发计划,因为他们眼中的竞争对手依然是彼此。
不过,这种局面从今天开始可能就要结束了。Arm 正式宣布其计算平台进入新的发展阶段,首次将产品线从 IP 和 CSS(计算子系统)扩展到量产芯片领域,并发布首款产品—— Arm AGI CPU。
看名字就知道,这玩意是给 AI 服务器准备的,看来 AI 算力市场的巨大利润实在是让 Arm 也坐不住了。毕竟他们近年来一直饱受营收增长放缓的困扰,迫切需要一个破局点,而 AI 数据中心显然是目前乃至未来最合适的选择。
从幕后走到台前,Arm 丢出王炸
说实话,AGI CPU 发布得挺突然的,雷科技也是早上刚收到 Arm 发送的邮件,才知道他们悄然间搞了个大玩意。
AGI CPU 最高可集成 136 个 Neoverse V3 核心,不过也提供 128 核、64 核两个不同的核心规格可选,并且均支持单路和双路架构,这就给了服务器厂商们很大的选择与搭配空间。
而且,从官方文档提供的数据来看,AGI CPU 的核心性能也非常亮眼,其基频为 3.2GHz,加速主频可达 3.7GHz,最高支持 DDR5-8800 内存,而且还支持 PCIe 6.0 和 CXL 3.0(是服务器 CPU 中首个支持 PCIe 6.0 的产品),而 TDP 仅为 300W。
看到这里可能就有人要问了:" 这玩意最高主频才 3.7GHz,牛在哪?" 这就不得不给大家科普一下:服务器芯片的主频随着核心数的增加,往往都会大幅度下降,因为其与传统 CPU 负责的任务是不同的。
传统的高主频 CPU 核心数一般都不会超过三位数,比如 AMD 的 EPYC 9575F,虽然有着 3.3GHz 的基频和 5.0GHz 的加速主频,但是核心数仅 64 个,主要负责数据中心的高负载单线程任务计算,而数据中心日常最常见的低负载高并发任务,则是由多核心低主频的 CPU 负责。

所以,单纯从核心主频来判断服务器 CPU 的性能是完全错误的。作为对比,与 AGI CPU 类似的 CPU 如 AMD EPYC 9965,其基频仅 2.25GHz,加速主频同样是 3.7GHz,而这已经是目前业界的顶级服务器 CPU。
可以说,Arm 一出手就直接把自己的服务器 CPU 干到了业界的顶级水平,而且其 TDP 还比 EPYC 9965 低 200W(仅 300W),是目前同类型 CPU 中能效比最高的。根据官方的说法,在相同的供电规模下,AGI CPU 可以提供两倍于 x86 架构服务器的算力和性能。
简单来说,AGI CPU 可以让 AI 数据中心以更低的建设和后期维护成本,维持更高的算力规模,这对于云服务商来说无异于 " 瞌睡遇到枕头 "。毕竟现在 Token 成本降不下去的核心原因就是电力成本实在太高了。
可能有人觉得电费不算什么,但是当能耗达到数据中心的级别时,每一瓦功率的差距都会对整体成本带来显著影响。
举个例子,在 OpenRouter 统计的数据中,最近一个月的全球 Token 调用量中国以绝对优势领先于美国。甚至中国数据中心烧掉的 Token 有相当一部分来自欧美等海外地区,而在模型活跃度排名中,前五的模型有四个是中国模型,美国仅 Claude 上榜。

而在前段时间,美国各州陆续通过决议,要求 AI 企业自负电费成本,意味着美国 AI 企业的用电成本进一步上升,然后你就会发现各个 AI 数据中心对高能效芯片的需求会越来越大。
所以说,AGI CPU 的发布时机也非常巧妙,恰好卡在各大公司对高能效芯片的需求大涨的时候。
不再是配角,
CPU 将成为新的算力核心?
看到这里,估计有读者纳闷了:大家知道 GPU 是算力核心,为什么 CPU 也是?其实,准确来说 CPU 并非直接的算力核心。在整个 AI 数据中心的算力架构里,它更多作为调度中心和辅助计算核心来运行,负责承接低负载需求,以及给 GPU 拆解和分配任务,让 GPU 可以更高效地运算。
事实上,随着 AI 应用的重心逐渐转向实际部署和持续运行的智能体,我们对 AI 数据中心的要求也在发生很大的改变。你可以理解为,以前是需要一堆尖子生博士(GPU)一起研究一个难题(训练大模型),那么 GPU 算力自然是越高越好,因为求的就是速度,能效反而是其次。
但是,在大模型训练好后,应用端的需求往往是零散且简单的。比如 A 用户问 " 如何做好煎蛋 ",B 用户问 " 帮我把这堆数据变成表格 ",这些零散的任务若是一股脑全部塞给 GPU,那么就会造成严重的算力浪费。
所以,许多 AI 数据中心就盯上了 CPU。虽然其算力与 GPU 完全无法比,但是却可以承接前期推理、协同调度和数据搬运等任务,降低算力核心的负担,同时也让算力的使用变得更高效。

面对这种需求,Arm 在架构设计上进行了针对性的取舍与优化,让 AGI CPU 拥有出色的大规模并行代理式 AI 负载能力。简单来说,你可以将其看作一款特化版的 CPU,专注于处理服务器的并行 AI 请求,而不是无脑堆砌通用算力。
而且,凭借更低的功耗,Arm 在与超微合作推出的 200kW 液冷服务器方案中,直接部署了 336 颗 AGI CPU,单个机柜就拥有超过 45000 个核心,而在标准的 36kW 机架中,也同样支持最多 60 颗芯片的部署,单机核心可达 8160 个。
通过最大程度地兼容现有服务器硬件方案,同时推出基于 AGI CPU 定制的高密度服务器方案,Arm 极大降低了传统数据中心升级 AI 算力时的散热改造成本,对于亚马逊等传统云服务巨头来说有着不小的吸引力。

所以,AGI CPU 可能不是性能最强的,却可能是最能省钱且高效的。说白了就是能为巨头们实打实地省下钱来,并且在后续的运行中以更低成本提供同等规模的算力,这就够了。
不做搅局者,
而是成为 " 合作者 "
那么 Arm 有机会在竞争激烈的市场中杀出一条血路吗?雷科技认为是有可能的。事实上,Arm 在官方文档中就已经捎带了不少行业巨头的点评和合作动向,显然 Arm 并不打算成为一个纯粹的市场抢占者,而是选择与行业巨头合作,推动 AGI CPU 的快速落地。
比如 Meta 就已经官宣他们是 Arm 的最大合作伙伴,将在接下来的 AI 数据中心里大范围部署 AGI CPU,并与自研的 MTIA 加速器协同工作,通过这种方式降低 Meta 的 AI 算力部署成本和 Token 成本。
虽然 Meta 在顶级模型的竞争上已经落后于 OpenAI、谷歌等公司,但是如果他们可以把 Token 成本降到其他美国企业的三分之一以下,那么在一些市场上将取得明显优势。
AGI CPU 吸引来的合作方并不只有 Meta,OpenAI 也表示他们正密切关注这款芯片,并且正在与 Arm 合作推动 AGI CPU 在 OpenAI 数据中心的部署。同时,Arm 列出的合作方还包括数十家遍布全球的数据中心运营企业、网络企业和服务器供应商。

要知道,对于数据中心而言,芯片成本只是其中的一部分,包括各种硬件模块和主板在内的全套服务器机架的售价同样不低。比如英伟达的一个高速光模块售价就高达上千美元,单个计算节点仅光模块成本就超过上万美元,而 Arm 的开源选择,其实就相当于 " 我出个引擎 ",剩下的车身、轮毂、轮胎等配件你们丰俭由人。
这种 " 授人以渔 " 的打法,对于那些被封闭生态(比如极端昂贵的专有网络互连和封闭式液冷基建)深度绑定的云服务商来说就太爽了。所以,如联想、广达、超微等头部服务器厂商都已经推出早期方案,并表示商用方案将在今年内落地。
对于一款新发布的服务器 CPU 来说,这个落地速度已经十分惊人,这也意味着其有望赶上 2026 年的算力扩张浪潮。
在雷科技看来,AGI CPU 确实精准踩中了目前 AI 行业最大的痛点,可以说早一点、晚一点发布都不会引起如此大范围的关注,或是能拉出 50+ 的合作伙伴搭台。作为 Arm 的首个跨界之作,或许也将成为 Arm 转型为芯片企业的一个里程碑。
End
欢迎扫码添加小雷微信
记得备注想进群的手机品牌哦
跟小雷一起畅聊数码与 AI 科技
另外小雷建了很多粉丝群,欢迎扫码加入!
大家伙一块聊聊天,分享玩机技巧~


