作者 | 杨依婷
编辑 | 包永刚
去年的 CFMS|MemoryS 峰会上,存储厂商们讨论的是:价格何时企稳、QLC 何时上量、AI PC 何时落地。彼时,"AI 会让存储变得更基础、更关键 ",还更像是一种行业判断,一种面向未来的趋势预演。
一年之后,站在 MemoryS 2026 的会场里,问题已经彻底变了。
人们谈论的不再只是位元成本、颗粒供给和容量节奏,而是 GPU 利用率、token 成本、系统调度效率,甚至物理 AI 场景中的实时决策能力。那些原本属于 AI 基础设施和系统架构层面的议题,正在越来越频繁地出现在存储产业的讨论中心。
在传统计算架构里,存储的职责更多是 " 存 "。数据被写入、留存,在需要时调取,不需要时则静静停留在系统边缘。它长期是 BOM 成本中的一项,是容量规划的问题,而很少直接参与算力效率的定义。
但在大模型训练与推理时代,这一角色被彻底改写。
KV Cache 的访问延迟,开始直接影响 token 生成速率;Checkpoint 的写入效率,决定着 GPU 在训练过程中的等待时间;SSD 的 IOPS 密度,则进一步影响大模型推理场景下的并发能力和系统吞吐。
存储开始进入计算主路径,它决定数据流动的速度,也在某种程度上决定 GPU 算力能否被充分兑现。而这,正在反向重塑整个存储产业链的分工逻辑。
存储进入计算路径,旧分工开始失效
AI 推理有一个被反复讨论的瓶颈:KV Cache。
大模型在处理长上下文时,需要把每一层、每一个 token 生成过程中的 Key 和 Value 结果临时保存下来,以避免重复计算。上下文越长,并发越高,这部分缓存的体量就越惊人。
当高带宽显存无法继续承接,KV Cache 只能向下一层存储介质下沉,NVMe SSD 由此正式进入大模型推理的实时数据路径。
如果说过去 SSD 的使命是 " 提升加载速度 ",那么在 AI 时代,它开始直接约束或决定推理吞吐的上限。
慧荣科技总经理苟嘉章的总结更为直接:" 新一代存储,正在从数据存储进入计算存储。"
这句话几乎点破了整个行业变化的本质。一旦存储进入计算路径,它就不再只是静态保存数据,而是开始影响 token 生成效率:访问时延影响输出速度,IOPS 密度决定并发能力,写入效率左右 Checkpoint 节奏,最终共同作用于单位 token 成本。
也正因如此,AI 场景对存储提出的要求,已经明显超出了 " 标准颗粒 + 通用主控 + 标准模组产线 " 这套旧模式的能力边界。
2026 年,全球也许没有任何一款主流 AI 存储产品能够实现供需平衡。
表面看,这是先进产能持续向高毛利 AI 产品倾斜,消费级市场被进一步挤压;但更深层的问题在于,即便产能跟上,旧有分工模式也难以高效承接 AI 场景对定制化、快速迭代的需求。
存储厂商集体越界
当存储真正进入计算路径,产业链上原本清晰的角色边界开始松动:主控厂介入系统定义,模组厂延伸至固件与方案优化,各自补全过去并不属于自己的能力版图。
以慧荣为例,传统主控的核心任务,是管理闪存介质、优化读写效率,并在稳定性、兼容性和寿命之间寻找平衡。但在 AI 时代,这套能力模型已经不够。
如今,慧荣开始反复强调一种新的能力——性能动态调节。
慧荣科技总经理苟嘉章在与雷峰网交流时多次强调,主控需要 " 根据工作负载、功耗和需求量,在动态中快速调整 "。这已经不再是传统意义上的硬件参数调优,而是直接响应英伟达新架构中 " 上下文内存存储(Context Memory Storage)" 对实时调度的需求。

这种变化,也在推动主控厂进一步向下游延伸。
慧荣正在积极与长江存储联合推进车规级方案,目标是在第三季度末至第四季度实现规模上量,直接供货国内车厂。过去卖芯片的公司,如今越来越多地以 " 联合方案提供方 " 的身份出现。
这意味着主控厂的商业角色也在变化:一方面向上理解 AI 工作负载,把主控纳入系统调度;另一方面向下输出完整方案,从卖芯片走向卖系统能力。
未来存储产业的竞争,不再只发生在颗粒、主控或模组层,而是进一步延伸到封装架构、异构互连和系统级协同,是生态、技术、产能、客户、资本的综合战争。
端侧 AI 反向定义存储
AI 对存储的重构,显然不只发生在数据中心。
另一条同样重要的战场正在端侧迅速展开—— AI PC、机器人、游戏掌机、智能眼镜,乃至更多尚未被完全定义的新型终端,都在把存储推向更核心的位置。
正如众多厂商在峰会上提到的,物理 AI/ 端侧 AI 将迎来更广泛的发展,并带来更智能化的体验。而这些更新更好的体验将带来更多的产品溢价,足以抵抗存储价格上涨的压力。 "
这句话背后,点出了端侧 AI 最现实的商业逻辑:只要体验提升足够明显,存储成本就不再只是成本,而会转化为产品价值的一部分。
但与数据中心不同,端侧 AI 面临的不是单一性能问题,而是高度碎片化的场景挑战。
一台 AI PC,需要在本地运行大模型,对存储的核心诉求是大容量 + 高速读取;一台机器人,需要在高震动、高移动性的复杂环境中持续稳定运行,同时还要支持后期扩容;一副智能眼镜,则把需求进一步推向极致的小尺寸、低功耗和高集成度。
可插拔、可扩容、高抗震、小尺寸、高容量——这些要求往往彼此拉扯,很难通过同一款标准化模组同时满足。
这也是为什么,端侧 AI 正在比数据中心更早倒逼存储方案走向场景化重构。
佰维给出的解法非常具有代表性。
针对机器人场景,其推出了一套 "BGA SSD + Mini SSD" 的组合方案:BGA SSD 直接焊接在主板上,以更强抗震性承担系统盘角色,保障操作系统和本地 AI 模型稳定运行;Mini SSD 则采用类 SIM 卡槽设计,支持用户无工具插拔,作为数据盘解决嵌入式设备后期无法扩容的长期痛点。
这套方案的关键,并不只是形态创新,而是它背后的产品逻辑:把 " 稳定 " 和 " 灵活 " 拆分为两个独立部件,并分别做到最优。这本质上已经不是传统意义上的 " 卖一块 SSD",而是在重新定义机器人存储架构。
更值得关注的是,佰维的动作并未停留在单一产品层面。
它正在推动 Mini SSD 从企业级方案,进一步走向行业标准。通过联合产业链上下游成立 IP 公司,并同步制定激励机制和权益金分配规则,佰维试图把 " 可插拔存储 " 推进为下一代 AI 终端的标准能力。
其目标场景并不局限于机器人,而是进一步覆盖 AI PC、游戏掌机等多类设备——这些终端当前仍采用不同形态的本地存储方案,而 Mini SSD 的野心,是用统一接口去重新组织它们。
换句话说,它争夺的不只是产品份额,而是下一代端侧 AI 设备的标准定义权。
而在这个过程中,过去那套面向 PC 和手机时代的标准化存储模组,已经越来越难承接碎片化、多形态、高迭代的终端需求。
更深层的变化在于,设备与存储之间的关系,正在发生方向性的逆转——过去,是设备定义存储:设备要做什么,存储就被动适配什么。
而现在,随着本地 AI 能力越来越依赖容量、带宽、功耗和形态协同,存储开始反过来影响设备形态、产品定义,乃至最终用户体验。
下一战:功耗、延迟、智能
AI 最大的痛点并非算力不足,而是数据在存储与计算单元间的频繁搬运,降低系统效率。如何减少数据在存储与计算单元之间的频繁搬运,已成为行业共同攻关的核心命题。
这句话放在一年前,可能还有点抽象。但经过过去一年产业链上下游一连串几乎同步发生的变化之后,它开始落到一个个极其具体的技术指标上:KV Cache 的访问时延、Checkpoint 的写入效率、单位 token 成本等等。
过去十年,产业比拼的是单位容量的成本;下一个十年,胜负手将取决于数据在计算与存储之间流动的效率、功耗与智能。
至于那些仍固守在旧分工里、只盯着颗粒价格波动的玩家,留给他们的时间,或许真的不多了。
雷峰网