关于ZAKER 开放平台 合作
全天候科技 6小时前

智能体崛起后,整个 AI 价值链的分布都变了!大摩:GPU 不再是一切

AI 投资的主叙事正在经历一次结构性迁移。摩根士丹利最新研究指出,随着 AI 从 " 生成内容 " 走向 " 自动执行任务 ",下一轮 AI 基础设施的增量逻辑将从 " 单芯片算力竞赛 " 扩展为 " 全栈系统工程 " —— GPU 依然是核心,但不再独享预算与溢价。

据追风交易台,摩根士丹利研究部分析师 Shawn Kim 在报告中直接写道," 智能体 AI 标志着从计算到编排的结构性转变。" 在智能体工作流中,CPU 侧编排时间可占总时延的 50% 至 90%,由此推导出到 2030 年新增 325 亿至 600 亿美元的 CPU 增量市场空间,并将服务器 CPU 总 TAM 推至 825 亿至 1100 亿美元量级。

与此同时,DRAM、ABF 载板、晶圆代工、存储、连接器与被动元件等环节,均将从 " 配角 " 跃升为新的瓶颈与利润池。将在 2030 年额外催生 15 至 45EB 的 DRAM 需求,规模相当于 2027 年全行业年供给的 26% 至 77%。

这一判断对市场意味着:AI 资本开支的受益者将从少数芯片巨头扩散至整条全球供应链,下一轮超额收益,可能更多来自那些在智能体工作流中最先成为瓶颈、且最难快速扩产的 " 使能环节 "。随着瓶颈在不同环节迁移,AI 价值链的权重分布随之改变。

从 " 生成 " 到 " 行动 ":智能体把瓶颈从算力推向编排

生成式 AI 的典型工作流结构相对简单:用户请求到达后,CPU 完成少量预处理,GPU 负责 token 生成,随后返回结果。整个链路中,GPU 是绝对主角,CPU 仅承担辅助功能。

智能体的运作逻辑截然不同。完成一个任务,系统需要经历规划、检索、调用外部工具与 API、执行、反思迭代等多个步骤,还涉及多智能体协作、权限管理、状态持久化与调度等大量 " 控制面 " 能力。大摩的核心结论是:智能体带来的不是更 " 重 " 的单次推理,而是更多步骤、更多状态、更多协调,而这些工作天然更适合 CPU 处理。

由此带来两个直接后果:其一,集群层面 CPU 与 GPU 的配比将系统性上升;其二,DRAM 从 " 容量配置项 " 升格为 " 性能与吞吐的核心系统组件 "。数据中心的瓶颈将越来越多地出现在内存带宽、数据搬运、互连时延与系统级协调,而非单纯的 GPU 算力。

CPU 配比正在重估:从 "1:12" 走向 "1:2" 乃至反转

过去,"1 颗 CPU 服务约 12 块 GPU" 曾是 AI 服务器的典型架构描述。但报告指出,随着智能体工作流变长、工具调用与上下文管理趋于复杂,这一比例正在快速收窄。

以 NVIDIA 路线图为例,更新估算显示:在 Rubin 平台附近,CPU 与 GPU 的配比已接近 1:2;若向 Rubin Ultra 等更激进形态演进,甚至可能出现 2 颗 CPU 对应 1 颗 GPU 的反转配置。即便仅从 1:12 改善至 1:8,对超大规模部署而言,CPU 的绝对需求量也将出现量级跳升。

一旦这一方向成立,CPU 的需求弹性将从 " 跟着服务器出货走 " 转变为 " 跟着智能体复杂度走 ",这意味着 CPU 需求的增长将更具结构性,而非仅仅是传统硬件换代周期的延续。

CPU TAM 重算:2030 年 825 亿— 1100 亿美元,增量来自编排

摩根士丹利采用 " 系统分层 " 方法,将智能体带来的 CPU 机会从传统服务器更新换代逻辑中剥离,建立三个独立分析口径:

Head Node CPU对应贴近 GPU 系统的机架控制层,以 2030 年全球约 500 万颗 AI 加速器、每颗加速器配 2 颗高端 CPU、CPU 平均售价约 5000 美元为假设,对应约 500 亿美元 TAM。

Orchestration CPU覆盖智能体编排新增需求,包括规划与调度、工具链、RAG 管线、KV cache 与向量库相关内存服务、策略与可观测性等。算额外新增 1000 万至 1500 万颗 CPU、ASP 约 3000 美元,对应 300 亿至 450 亿美元 TAM。

Other CPU涵盖存储节点、部分网络节点等,对应约 25 亿至 150 亿美元。

三项合计,2030 年服务器 CPU 总 TAM 约 825 亿至 1100 亿美元,其中智能体带来的增量约 325 亿至 600 亿美元。整个测算的底层锚点是对 2030 年全球 AI 数据中心基础设施销售额约 1.2 万亿美元的判断(2025 年约为 2420 亿美元)。

报告同时给出了 " 上修开关 ":若按 NVIDIA 口径,2030 年 AI 基础设施销售额达到 3 万亿或 5 万亿美元,则 CPU TAM 区间将被整体推至 2060 亿至 2750 亿美元,乃至 3440 亿至 4580 亿美元。这并非基准预测,但揭示了 "AI 工厂 " 规模扩张对 CPU 需求的系统性放大效应。

内存从配角变主线:2030 年新增 DRAM 需求 15 至 45EB

智能体的真正差异化不只在推理能力,更在 " 可持续的上下文与记忆 "。持续上下文、KV-cache、工具调用中间态与并发智能体工作集,CPU 侧 DRAM 实质上成为 HBM 的功能性延伸。

测算模型直接明了:新增 DRAM 需求等于新增编排 CPU 数量乘以单 CPU 平均 DRAM 配置。两档假设分别为:新增 1000 万颗编排 CPU、每颗配置约 1.5TB;偏乐观情形为 1500 万颗、每颗约 3TB。由此推导出 2030 年智能体可带来 15 至 45EB 的新增 DRAM 需求,相当于 2027 年 DRAM 行业年供给的 26% 至 77%。

在周期判断上,报告还注意到一个市场结构变量:多数内存供应商正在与大客户讨论 3 至 5 年长期协议(LTA),这可能令定价下行斜率趋缓,并将 2027 年前的盈利能见度抬高。" 内存层级正在成为 AI 系统的核心变现路径 " ——主机 DRAM、内存接口芯片、CXL 扩展及 SSD/HDD 分层存储,都将成为更可持续的价值承接点。

供给越紧的环节越具定价权:ABF 载板、代工与使能组件

而真正具备超额收益潜力的,是那些 " 产能扩得慢、验证周期长 " 的使能环节。报告重点点名了以下几条链:

ABF 载板:这轮 AI 驱动的 ABF 上行周期可能延续至本十年末,2026 至 2027 年附近存在供需缺口风险。仅 "CPU TAM 扩大 " 一项,就可能带来 2030 年 ABF 需求 5% 至 10% 的上修;其中服务器 CPU ABF 载板市场到 2030 年约达 47 亿美元,CPU 带来的增量需求约 12 亿美元。

晶圆代工(尤其先进制程):CPU 代工可服务市场 2026 年约 330 亿美元,2028 年约 370 亿美元。台积电在 CPU 代工领域的份额预计从 2026 年约 70% 进一步提升至 2028 年的约 75%;并预计英特尔可能在 2027 年下半年开始将服务器 CPU 外包给台积电。

BMC 与内存接口:Aspeed 被强调为 CPU 服务器 BMC 的核心受益者,其在该细分领域约有 70% 的市场份额,新一代 AST2700 平台带来 40% 至 50% 的 ASP 提升空间;Montage 则被置于 " 内存互连 " 价值链,全球收入份额约 36.8%。

CPU Socket 与被动元件:报告以 Lotes 与 FIT 作为 CPU socket 的直接映射,测算每增加 100 万颗 CPU 需求,Lotes 收入约增加 0.6%、FIT 约增加 0.2%(仅按 socket 口径计)。被动元件方面,以 " 每台通用服务器约 30 美元 MLCC 内容量 " 为简化假设,推算出 2030 年额外 5 亿美元 MLCC 需求增量,约占届时全球 MLCC 市场的 2% 至 3%。

CPU 是最清晰增量,但 " 使能环节 " 更受偏爱

报告承认智能体工作负载增长将结构性利好 AMD 的云端份额,但对 AMD 与英特尔均维持 Equal-weight 评级,倾向于通过 NVIDIA、博通等 " 资本开支与 token 增长更直接映射至盈利 " 的标的来追踪智能体主题,同时将估值约束列为重要考量维度。

从更宏观的框架看,这份报告的核心价值在于将 AI 的投资范式从 " 单点算力军备竞赛 " 升级为 " 系统效率与瓶颈经济学 ":GPU 是发动机,CPU 是变速箱与控制系统,内存与互连是油路与底盘——单点极致仍重要,但决定规模化回报的是整车协同。

对产业链而言,这意味着 AI 投资的超额收益来源将更加分散也更为长期:不只来自 " 最强 GPU",更来自那些在智能体工作流中率先成为瓶颈、且最难快速扩产的环节。能够持续追踪的高频验证指标包括:新平台 BOM 中 CPU 数量与内存配置的上修幅度、云厂商长期协议签约节奏,以及 ABF 载板与先进制程产能的利用率走势。

全天候科技

全天候科技

提供专业快速完整的科技商业资讯

订阅

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容