作者 | 杨依婷
编辑 | 包永刚
在全球科技行业驶入 AI 时代的高速路时,存储产业正经历一场深刻的范式转移,过去周期性波动明显的市场,正被一股强劲而持续的结构性增长力量所主导。这一转变在近日举行的 GMIF 2025 创新峰会上成为共识。
长久以来,存储市场一直都有周期性的波动:当产能过剩时价格暴跌,需求回升又带来短暂反弹。在 AI 需求的带动下,存储行业正进入持续高增长通道。
市场预测显示,2025 年新型存储市场规模将接近 2000 亿美元,同比增长约 17%;到 2027 年,新型存储的市场规模预计将进一步扩大至约 2300 亿美元。
爱集微咨询总经理韩晓敏在 GMIF 2025 创新峰会上分析道:" 这次推动存储行业复苏的动力,不再是手机和 PC,而是 AI 驱动的计算需求。" 他表示,目前,这一增长的主要驱动力仍来自北美互联网巨头的大规模投资,中国虽然在全球 AI 产业中位居第二,但由于先进芯片供应受限,发展能力受到一定程度的制约。
不过,近期包括阿里、字节在内的国内主要互联网企业,纷纷上调了未来几年在云基础设施建设方面的投资计划。韩晓敏认为,这一动向意味着市场的实际增速可能超出此前 17% 的普遍预期,有望达到约 22%。
同时,AI 模型训练的高密度算力需求也让数据量呈指数级增长,这也将推动对存储的需求。闪迪产品市场总监张丹总结了 AI 时代的数据特征—— "4V":体量巨大、种类多样、价值密集、实时性强,预计全球数据总量将在 2025 年突破 200ZB。"AI 正在让数据从被动存储变为主动驱动,存储性能正决定 AI 体验。" 她强调。
在这一趋势下,市场焦点正从 " 存多少 " 转向 " 怎么存 ",容量扩张不再是竞争核心,更重要的是如何让数据流动得更快、更智能、更节能。更多资讯,欢迎添加雷峰网作者微信 EATINGNTAE。
AI 的高并行计算模式带来了前所未有的带宽与延迟挑战,也推动了以 HBM、AI SSD、CXL 和存算一体为代表的存储技术的发展,韩晓敏指出,这一轮增长的动力已从 " 产能扩张 " 转向 " 架构升级 "。
在 AI 推动的架构变革中,存储产业首先感受到的是带宽与能效的双重压力。传统 DRAM 难以满足大模型训练的需求,HBM(高带宽内存)的出现由此成为产业转折点,它凭借 3D TSV 堆叠和 2.5D/3D 先进封装技术,大幅缩短了数据搬运的物理距离,将内存带宽提升至新的量级,从而充分释放了 AI 芯片的算力潜力。
在 GMIF 创新峰会上,三星电子副总裁 Kevin Yong 介绍,HBM 是目前增长最快的细分市场,通过垂直堆叠和先进封装,为 GPU 提供了远超传统架构的数据吞吐能力,成为训练大模型的 " 刚需 "。与此同时,韩晓敏进一步透露,国产厂商正在迎头追赶,以华为为代表的厂商在自研 HBM 上进展显著,预计 2026 年将实现国产 HBM 的大规模量产,初期产品主要以 HBM3 为主。
HBM 推动了算力端的带宽突破,而 AI SSD 正在重新定义 " 存 "。过去的 SSD 更多追求通用性能极限,如今企业则通过在固件算法层面引入智能调度和数据分级等机制,让存储能够感知并预测计算的节奏,从而极大提升 AI 训练和推理的效率。
英韧科技董事长吴子宁表示,AI SSD 可通过直接连接 GPU 内存通道显著提升训练和推理速度,行业目标是在 2027 年前将 AI SSD 的 IOPS(每秒输入 / 输出操作次数)性能从 " 百万级 " 提升至 " 亿级 "。
然而,算力的提升也暴露了新的瓶颈,澜起科技肖扬指出:" 当前 AI 发展的关键瓶颈已不是算力,而是由‘内存墙’造成的,问题的核心从计算本身,转移到了数据访问的效率上,GPU/CPU 的强大算力因无法及时获得足够的数据而处于闲置等待状态。"
为从根本上缓解数据在计算与存储单元间搬运产生的效率瓶颈,存算一体技术被视为关键路径。北京大学孙广宇教授在报告中系统阐述了这一技术,他认为存算一体并非特指某一种具体介质或形态,而是一个广泛的技术概念,其根本目标是解决 " 内存墙 " 问题,即通过拉近计算单元与存储单元的距离,减少数据搬运的开销,从而提升整体效率。
同时,孙教授强调,不存在一种通用的存算一体技术可以应对所有场景," 我们会根据存储介质和呈现的场景的需求,做不同颗粒度的融合,未来的方向是构建‘层次化的、异构的存算一体架构’。"
与存储密切相关的 CXL(Compute Express Link)技术也正在成为业界焦点。澜起科技与英特尔联合测试的结果显示,采用 CXL 内存与本地内存混搭的方案,可以达到本地内存 95%-100% 的吞吐量性能,而延迟增加幅度在 5% 以内,大约为 5~10 微秒。
肖扬指出,在典型配置下,该方案最高可降低单服务器内存总体 TCO 达 27%,并且在当前高容量内存价格持续走高的背景下,这一收益更为凸显。在 AI 推理场景下的实验证明,用一颗 CPU 加 CXL 扩展内存,跑同样的模型,最终获得的 Tokens 生成速度与两颗原生内存 CPU 的方案几乎一致,这为在保证性能的同时降低系统功耗与成本提供了新思路。
这些变化标志着存储行业的竞争,已从粗放地 " 堆叠更多芯片 " 转向精细化地 " 组织更高效的数据路径 "。这种本质上的转变,也使得产业合作的焦点必然转向更高阶、更复杂的全链条协同。
AI 驱动:存储产业链的 " 协同突围 "
存储领域的竞争不是单一产品,而是一种系统能力,AI 时代的产业竞争焦点也随之转向全链条协同。从主控芯片设计,到先进封装,再到系统验证,技术创新正在跨越企业边界,形成紧密的生态合作,为 AI 训练、推理和边缘计算提供系统化支撑。
在芯片设计端,联芸科技总经理李国阳介绍,其新一代主控芯片正向 PCIe 5.0/6.0 高速接口与 6nm/4nm 制程升级,并通过 " 实时电源管理算法 " 与 " 健康巡检机制 " 提升能效与可靠性。
在封装端,广芯封装基板研发中心总监陆然指出:" 高性能计算和高性能存储是生成式 AI 和端侧 AI 发展的底层基座 ",而 AI 应用正驱动封装技术快速演进:在算力层面向 2.5D/3D 集成发展,在端侧存储层面追求薄型化,并在高性能存储芯片中广泛应用混合键合等技术。
佰维存储总经理何瀚也表示," 存和算之间深度融合依托的就是先进封装的能力 ",封装技术构成了其提供存算合封解决方案的物理基础。
而在产品最终验证环节,欧康诺电子科技总经理赵明表示,AI 存储产品必须具备极高的可靠性、性能一致性和极端环境适应性。为此,他介绍其公司推出的高端测试系统能够模拟 -70 度到 150 度的严苛环境,以验证产品能否稳定运行。
这些看似独立的创新,正在形成一条贯穿 " 芯片—封装—系统验证 " 的完整创新链。每一次局部突破,都在为 AI 的系统效率买单,这也正在重塑企业的角色。佰维存储集团总经理何瀚认为:"AI 时代,存储企业必须从传统模组厂商转型为解决方案提供商 ",企业需要整合主控芯片、协议标准与封装工艺,为 AI 训练、推理及边缘计算提供系统化方案。
从 HBM 到 CXL,从存算一体到先进封装,这场以 AI 为引擎的存储革命,正在让整个行业完成一次从 " 容量逻辑 " 向 " 架构逻辑 " 的转身。
当算力不再是瓶颈,决定 AI 系统效率的,不是算力峰值,而是数据流动的速度与能效,真正的竞争,不再是 " 谁的存储更大 ",而是 " 谁让数据更聪明地流动 ",在这个意义上,AI 时代的存储,不只是信息的容器,更是智能的发动机。
欢迎添加雷峰网作者微信 EATINGNTAE 进行交流。