关于ZAKER Skills 合作
钛媒体 19分钟前

SOCAMM2,引爆内存圈

文 | 半导体产业纵横

过去三年,HBM 始终占据半导体行业的核心赛道热度榜首;迈入 2026 年,SOCAMM2 的产业化进程与市场热度同步飙升,增速大幅超出行业预期,即便处于产能爬坡关键期的 HBM4,也难掩其锋芒。

那么,何为 SOCAMM2?它在存储芯片领域具体承担哪些角色?

01 SOCAMM,为何被重视?

SOCAMM,全称 Small Outline Compression Attached Memory Module,是一种由英伟达主导,与三星、SK 海力士、美光等公司合作开发的面向 AI 服务器与 PC 的模块化内存标准。它基于 LPDDR5X DRAM 颗粒,外形尺寸为 90mm × 14mm,采用 128bit 位宽,单模块容量可达 128GB,支持 8533 MT/s。该标准于 2025 年进入公众视野。

SOCAMM 被业内重视,源于 HBM 的供应紧张态势。

2025 年初,HBM 的需求呈现井喷式增长,HBM3 芯片现货价较 2024 年初暴涨 300%,单台 AI 服务器的 DRAM 用量是传统服务器的 8 倍。存储巨头三星电子、SK 海力士和美光科技也在 2025 年纷纷宣布,其 2026 年的 HBM 产能已被客户预订一空。

而 HBM 的需求激增,主要源于 AI 算力需求的爆发式增长,尤其是大模型训练和推理对高带宽内存的依赖度持续提升。在此背景下 SOCAMM 的横空出世,恰好填补了这一市场缺口。

那么 SOCAMM 与 HBM 又有哪些区别?

HBM 是专为 GPU/NPU 等计算核心定制的近存式高带宽 DRAM,核心是通过 3D 垂直堆叠 + 硅通孔(TSV)+2.5D 硅中介层的极致封装,打破传统内存的带宽瓶颈。其技术定位为计算核心的 " 贴身缓存 ",完全为极致带宽、极低延迟设计,是 AI 训练、超算等 " 带宽饥渴型 " 场景的刚需。

从带宽与容量层面,HBM 以带宽为核心优势,容量居于次要地位;SOCAMM 带宽低于 HBM,总容量表现则更为突出。

在成本层面,HBM 依赖 TSV、混合键合、2.5D 封装等尖端工艺,成本高、技术壁垒高;SOCAMM 依托成熟 LPDDR 供应链,封装工艺简化,成本优势显著,约为 HBM 的四分之一。

在功耗与散热维度层面,HBM 单位带宽能效高,但总功耗偏大;SOCAMM 整体功耗处于低位。

在集成方式层面,HBM 与 GPU 共封装为一体,容量出厂即固定,后期无法扩容,更换成本极高;SOCAMM 采用类似" 内存插卡 " 的设计,可随时更换、扩容,支持在线升级。

基于上述差异不难判断,HBM 与 SOCAMM 并非竞争关系,而是分工互补HBM 在 GPU 侧承担核心计算的即时数据吞吐,为张量计算、矩阵运算提供极限带宽,保障训练与推理的核心算力稳定输出;SOCAMM 则在 CPU 侧负责大规模数据缓存、长上下文存储与系统主存,支撑模型参数加载、数据预处理与多任务调度,补足 HBM 在容量与弹性上的短板。

SOCAMM 技术从设计之初就定位清晰,是专为 AI PC、AI 服务器等场景打造的高带宽、低功耗内存解决方案。其目标在于实现接近 HBM 内存的性能表现,同时将成本控制在更具竞争力的水平。

02 最大金主,押宝 SOCAMM2

去年中旬,市场消息称英伟达计划在当年生产约 60 万至 80 万块 SOCAMM 内存。此次新内存的增产将用于英伟达的 AI 产品堆栈。首批搭载 SOCAMM 内存的产品之一是最新的 GB300 Blackwell 平台,这已经暗示了英伟达打算为其众多 AI 产品过渡到新的内存规格。虽然 80 万片的目标产量远低于英伟达内存合作伙伴在 2025 年向英伟达交付的 HBM 内存数量,但 2026 年这一规模将开始扩大,尤其是在 SOCAMM2 内存上市之后。

去年 3 月,美光明确表示已向客户交付基于 LPDDR5X 的 SOCAMM 模块,其快速响应能力不仅体现了技术储备的深厚,更反映出对英伟达战略的紧密配合。虽然英伟达最先选择了美光作为其首个 SOCAMM 供应商,但三星正积极与主要 AI 客户协商样品测试。同时,SK 海力士也在积极推动 SOCAMM 的商业化和推广。

随后在去年 9 月,英伟达做出了一项果断决策,宣布暂停推广第一代 SOCAMM 内存模块,并将研发资源全面转向新一代的 SOCAMM2。于是三星、SK 海力士、美光等存储龙头闻风而动,即刻调转方向,全力加快 SOCAMM2 的技术与产品布局。

从技术层面看,SOCAMM2 在硬件架构上延续了 SOCAMM1 的 694 个输入 / 输出(I/O)端口设计,这一稳定的底层架构为其性能升级奠定了基础。值得关注的是,SOCAMM2 的数据传输速度大幅跃升至 9,600MT/s,相较于 SOCAMM1 的 8,533MT/s,实现了约 12.5% 的显著提升。这一速率提升意味着在相同时间内,SOCAMM2 能够传输更多的数据,为 AI 服务器的高速运算提供了更强大的数据吞吐能力。

更具前瞻性的是,SOCAMM2 极有可能支持下一代低功耗内存 LPDDR6。作为 LPDDR5X 的继任者,LPDDR6 在诸多关键性能指标上实现了质的飞跃。

在 SOCAMM2 的竞赛中,美光和 SK 海力士跑在前列。

今年 3 月初,美光宣布已正式向客户出货业界最高容量的 256GB SOCAMM2 低功耗内存,这款产品采用业界首款单片 32Gb LPDDR5X 芯片打造。随后在刚刚过去的 4 月 20 日,SK 海力士宣布已启动 192GB SOCAMM2 的大规模量产。这是一款专为英伟达 Vera Rubin 平台量身打造的下一代内存模组。

此次量产的 192GB SOCAMM2,核心采用 SK 海力士 1cnm 工艺(第六代 10nm 级别工艺)制造的 DRAM 芯片。在核心性能层面,这款全新的 192GB SOCAMM2 实现了对传统服务器内存的全面超越。相较于数据中心广泛使用的传统 RDIMM(寄存式双列直插内存模块),该新品不仅带宽实现翻倍增长,功耗效率更提升了 75% 以上,为 AI 场景下的高性能运算提供了深度优化的解决方案。SK 海力士方面强调,该产品正是针对当前 AI 大模型发展的核心痛点打造,能够从根本上解决数千亿参数大语言模型(LLM)在训练与推理过程中遭遇的内存瓶颈问题,进而对大幅提升 AI 系统整体处理速度起到关键作用。

三星暂未有 SOCAMM2 量产的消息传出,不过三星称已解决翘曲(warpage)问题,这是 SOCAMM2 量产前的主要障碍。报道称,三星通过应用自研下一代低温焊料(LTS)技术解决了该问题。

关于 SOCAMM2 的大规模量产时间,上述厂商多指向 2026 年。据悉,英伟达向 DRAM 供应商提出的 2026 年 SOCAMM2 需求约为 200 亿 Gb,其中三星承接了其中的 100 亿 Gb,相当于 8.3 亿颗 24Gb LPDDR DRAM 芯片,预计每个月要以 3 至 4 万晶圆的产能才能满足,约占三星 5% 的整体 DRAM 产能。另外剩下的部分 SOCAMM2 需求,SK 海力士将拿到 60 至 70 亿 Gb 的订单,剩余的则归美光。

这家国产存储公司,已下场做 SOCAMM2

去年 9 月,江波龙在 2025ODCC 开放数据中心大会上正式发布了基于 LPDDR5 ( x ) DRAM Die 的创新型企业级内存模组产品 SOCAMM2,提供 64~256GB 的单条容量和 8533MT/s 的传输速率。

江波龙表示 SOCAMM2 基于 LPDDR5/5x 颗粒和 CAMM 模块化设计,采用 4-N-4 HDI 超高密度互连叠层结构;其相较 LPCAMM2 去除了顶部凸出的梯形结构,进一步降低了整体高度,更适合服务器的安装环境和液体冷却系统。

SOCAMM2 相较 DDR5 RDIMM 速率提升约 33%、面积占用减少约 70%、功耗降低约 67.5%,同容量带宽达标准 RDIMM 的 2.5 倍,主要面向 HPC 高性能计算、通用服务器、AI 集群服务器、AI 训练 / 推理、智能辅助驾驶和工业边缘网关等应用场景。

03 为什么火的是 SOCAMM2?

其实在 2025 年、2026 年,横空出世的存储技术并不止 SOCAMM,还有 MRDIMM、CAMM2、HBF 等,但是吸引了市场更多关注度的似乎只有 HBF 和 SOCAMM。

究其原因,SOCAMM 的爆火,实则是踩中了时代的三个 " 爽点 "。

第一点,当前 AI 行业已从 " 训练阶段的技术竞赛 ",逐步转向 " 推理阶段的规模化落地 ",但 Transformer 架构存在一个核心短板—— KV 缓存会随上下文长度线性膨胀,导致传统 DDR5 内存带宽不足,进而拉长首 Token 生成时间,大幅降低服务器并发处理能力。SOCAMM2 的出场,直击这一痛点,这对于追求性价比与运营效率的云服务商而言,这一提升直接转化为显著的成本节约与性能优化。

第二点,上文提到 SOCAMM 相较于 HBM 的部分优势使其实现了性能与成本的最优平衡。

第三点,也是极为重要的一点。传统的 RDIMM 内存是垂直插拔的,又占空间又挡风道,碰上现在流行的 4U/8U 高密度服务器和液冷技术,可谓 " 八字不合 "。要知道在当前的 AI 服务器领域,液冷技术可是关键词之一。SOCAMM 采用水平压缩连接方式,与 PCB 板紧密贴合,不仅使散热效率提升,还支持热插拔与在线扩容,运维成本直接降低,从而使其完美适配高密度数据中心的空间利用与散热需求,成为数据中心架构升级的核心适配方案。

从美光、SK 海力士的量产竞速,到三星的技术攻坚,再到江波龙等国产厂商的强势入局,SOCAMM2 的赛道上,已经集结了全球存储产业的核心力量。2026 年,SOCAMM2 的产能爬坡与商业化落地,将成为观测 AI 存储产业变革的关键窗口。当技术迭代的齿轮持续转动,一个由 HBM 与 SOCAMM2 共同支撑的全新内存生态,正悄然重塑着 AI 时代的算力底座。

相关阅读

最新评论

没有更多评论了

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容