关于ZAKER 合作
钛媒体 16分钟前

AI SSD,热闹了起来

文 | 半导体产业纵横,作者 | 九林

这两天,存储行业热闹非凡。

8 月 5 日,美光一口气推出了三款基于美光 G9 NAND 打造的数据中心 SSD,号称能满足多样化 AI 工作负载需求。

无独有偶,铠侠也推出了专为生成式 AI 需求打造的 245.76TB NVMe SSD;此外,闪迪发布最新的 256TB AI 专用 SSD。

存储大厂们接连放大招,发布 SSD 产品,并且特意强调 " 赋能 AI"。

谁在呼唤 AI SSD?

在 AI 发展进程中,训练与推理两大核心环节对存储的特殊需求,直接推动了 AI SSD 的快速崛起。

与标准固态硬盘不同,AI SSD 专为处理深度学习、神经网络训练和实时数据分析等人工智能应用的巨大数据吞吐量、低延迟和高 IOPS(每秒输入 / 输出操作数)需求而设计。

AI 训练:高要求的存储需求

大模型迭代速度迅猛,每一次升级都伴随着训练数据量的指数级增长,PB 级数据已成为 AI 训练的基本门槛 。训练环节涉及 GPU、HBM 及承担快照、日志功能的 SSD 等组件,且对存储的要求远高于推理环节。

在训练过程中,系统需要反复读取和写入巨量数据,包括训练语料、模型参数、日志文件和中间结果等。数据流动的频率极高、负载持续,IO 密度远超日常应用。

在 AI 模型训练过程中,SSD 不仅负责储存模型参数,包含不断更新的权重和偏差,而且可以创建检查点(check point),以定期保存 AI 模型训练进度,即使训练中断也能从特定点恢复。上述功能都相当依赖高速传输以及写入耐用度,因此客户主要选择使用4TB/8TB TLC SSD 产品,以满足严苛的训练过程需求。

AI 推理环节:SSD 的核心支撑作用

AI 推理环节中,SSD 可在推理过程中协助调整、优化 AI 模型,尤其 SSD 可以实时更新数据,以便微调推理模型结果。AI 推理主要提供检索增强生成(RAG, Retrieval-Augmented Generation)和大型语言模型(LLM, Large Language Model)服务,而 SSD 可以储存 RAG 和 LLM 参考的相关文档和知识库,以生成含有更丰富信息的响应。目前TLC/QLC 16TB 以上等大容量 SSD便成为 AI 推理主要采用的产品。

AI 对存储 " 高性能、大容量、高能效 " 的三重刚需,让 SSD 成为 AI 场景下的最优解。

TrendForce 数据显示,全球范围内,2024 年 AI 相关的 SSD 采购容量将超过 45EB,未来几年,AI 服务器有望推动 SSD 需求年增率平均超过 60%,而 AI SSD 需求在整个 NAND Flash(闪存)的占比有机会自 2024 年的 5%,上升至 2025 年的 9%。

大厂 AI SSD 比拼,各有神通

铠侠:AI SSD,两方面入手

铠侠在今年公布了 AI 时代中长期增长战略。重点围绕 AI 驱动的存储技术创新、SSD 业务拓展及资本效率优化,以巩固其在 NAND 闪存市场的竞争力。

对于 AI SSD 有两类产品线:

第一类是高性能 SSD。铠侠的 CM9 系列,专为 AI 系统设计,搭载针对数据中心优化的 PCIe 5.0,最大限度地发挥需要高性能和高可靠性的 GPU 功能。

第二类是容量型 SSD。铠侠的 LC9 系列,适用于推理中使用的大型数据库等用例,当时容量为 122.88 TB,未来计划推出更大容量产品。

前两天,铠侠推出了新的容量—— 245.76TB。据了解铠侠 LC9 系列 SSD 采用的也是 QLC 3D 闪存,但是特点是结合了 CBA(CMOS 直接键合到阵列)技术,这就能够实现在 154 球栅阵列(BGA)小型封装中达到 8 TB 的容量。铠侠称这是业界首创。

来源:铠侠

对于未来的 AI SSD,铠侠也提出了自己的设想,主要从两个方面突破。第一是速度更快。现在的 SSD 每秒能处理 200 万 -300 万次小文件读写,多采用 TLC 和 QLC ,而新产品将采用XL-FLASH 的 SLC 闪存,速度提升到每秒 1000 万次以上,特别适合 AI 需要频繁读取零碎数据的场景。

这里解释一下,XL-FLASH 是铠侠开发的具有极低延迟、高性能 NAND,用于填补易失性存储器(如 DRAM)和当前闪存之间存在的性能缺口。最开始铠侠把 XL-FLASH 定位为英特尔已停产的 Optane 内存的竞争对手。目前,铠侠的第二代 XL-Flash 采用 MLC(多层单元)架构,密度翻倍,芯片容量从 128Gb 提升至 256Gb。

第二是更智能。目前 AI 检索数据要依赖内存,2026 年铠侠将推出AiSAQ 软件,让 SSD 自己就能处理 AI 的检索任务。这样不仅能减轻内存负担,还能让 AI 应用运行更高效,尤其适合智能终端和边缘计算设备。

美光:AI SSD 三剑客

美光最新发的 AI SSD 是三款。

第一款是美光 9650 SSD,全球首款 PCIe 6.0 的 SSD,主要用在数据中心领域。能够提供 28 GB/s 的性能。据美光测试,相较于 PCIe 5.0 SSD,9650 SSD 的随机写入与随机读取的存储能效分别提升高达 25% 和 67%。

第二款是美光 6600 ION SSD,单盘容量最高达 245TB,主要应用在超大规模部署与企业级数据中心整合服务器基础设施、构建大型 AI 数据湖。相较于竞品,该产品的存储密度提升高达 67%,单机架存储容量突破 88PB,大幅降低总体拥有成本(TCO)。

第三款是美光 7600 SSD,主要用于 AI 推理与混合工作负载。据称,能够在高度复杂的 RocksDB 工作负载下实现业界领先的亚毫秒级延迟。

从美光推出的产品来看,瞄准的正是:速度、容量、性价比。从美光最新的财报来看,截至 2025 年 5 月 29 日,美光 Q3 财季营收 93 亿美元,同比增长 37%;净利润 21.81 亿美元,同比增长 210.7%。其中,美光的 NAND 收入 21.55 亿美元,占总收入的 23%,环比增长 16.2%。NAND Bit 出货量环比增长约 25%。美光表示,2025 财年有望实现创纪录的营收。

Solidigm:优化 AI 效率的存储产品组合

Solidigm 将 AI 存储方案大致分为两类。

一类是,直连式存储(DAS),针对训练等对性能极度敏感的场景,它更关注单位功耗下的 IOPS;另一类是网络存储(包括 NAS 文件 / 对象存储),针对数据摄取、归档和 RAG(检索增强生成)等大容量场景,对读性能要求较高,同时也追求最低成本存储海量数据。

目前,Solidigm 构建了覆盖 SLC、TLC 和 QLC 的完整 SSD 产品序列。从高性能的 D7 系列到高密度的 D5 系列,Solidigm 能够为数据摄取、准备、训练、检查点、推理和归档等 AI 全流程的各个环节,提供最合适的产品。这其中包括了 D7-PS1010、D7-PS1030PCIe 5.0 SSD,大容量 D5-P5336QLC SSD 等。

Solidigm 在 AI SSD 中的另一个亮点是 QLC SSD。自 2018 年发布首款 QLC SSD 以来,Solidigm 已累计出货超过 100EB 的 QLC,并为全球 70% 的领先 OEM AI 解决方案提供商提供服务。

Solidigm 不仅推动 QLC 技术的普及与应用,还在液冷 SSD 技术领域进行大胆尝试。2025 年 3 月,Solidigm 展示其首款采用 SolidigmD7-PS1010 E1.S 9.5mm 外形规格的冷板液冷 SSD,该方案显著提升了散热效率。

一路向上

尽管大多数 AI SSD 预计是在 2026 年推出,但从前文的对比来看,AI SSD 已经有了雏形。

从颗粒的选择上,AI SSD 会朝着 QLC 颗粒方向走。铠侠 CEO 柳茂知也表示,QLC SSD 是 AI 行业最好的选择。尽管从 SLC 到 MLC,再到 TLC,最终到 QLC,SSD 的性能一直在下降,但随着技术的演变,2025 年 QLC SSD 的速度已经比 2017 年的 TLC SSD 快很多了。如今 QLC SSD 的顺序读写速度可达 7000MB/s 左右,性能十分强大,能够满足 AI 大模型数据存储和调用的要求。

基于 100 兆瓦数据中心的 AI 基础设施规模 来源:Solidigm

从实际测试中,Solidigm 构建了一个新 100 兆瓦 AI 数据中心的模型,评估 QLC 固态硬盘、TLC 固态硬盘和基于机械硬盘的混合部署的影响。 其中发现,QLC 固态硬盘的能效比 TLC 固态硬盘高 19.5%;比混合 TLC 固态硬盘和机械硬盘高 79.5%,同一数据中心内,使用 QLC 固态硬盘时可部署的全套 AI 基础设施数量更高。

从传输接口与协议层面来看,采用 PCIe 接口并支持 NVMe 协议,未来大概率会成为 AI SSD 的标准配置。PCIe 接口凭借不断升级的带宽能力,从 PCIe 3.0 发展到如今的 PCIe 5.0,目前业内已经推进到了 PCIe 7.0(6 月份发布了)。

可以从前文看到,目前推出的 SSD 大多是支持 PCIe 5.0 的,美光已经推出了 PCIe 6.0 的产品,顺序读取速率高达 28GB/s,到明年有竞争力的 AI SSD 应该都用上 PCIe 6.0。

不过,PCIe 目前在成本上还是比较昂贵,首批 PCIe 6.0 SSD 产品价格高达 500-800 美元(1TB),是普通 PCIe 4.0 SSD 的 3 倍 -5 倍。同时,产品需搭配支持 PCIe 6.0 的 CPU 及主板。

此外,NVMe 协议专门针对闪存存储进行优化,为 SSD 提供了极高的 I/O 吞吐量和低延迟,这对于减少数据访问瓶颈非常重要。在 PCIe 接口之上构建了高效的数据访问机制,极大地降低了延迟,提升了 IOPS 性能,能充分发挥闪存的快速读写特性。随着技术发展,PCIe 接口和 NVMe 协议还会持续演进,融入如CXL 等新兴技术。

热闹之下

AI SSD 的赛道,越来越拥挤。

从云端训练到边缘推理,存储不仅要保证基础性能,更需要与 AI 计算流程深度适配。存储厂商正在调整技术路线,从单纯追求性能指标转向优化整体系统协同。这种转变反映了行业对 AI 工作负载特性的深入理解。

当前的技术竞争焦点,已从硬件参数的比拼,转向如何实现存储与计算的无缝配合。毕竟在 AI 时代,最好的 SSD 不是跑分最高的那块,而是让 AI" 忘记 " 存储存在的那块。

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容