最近,华为在科研圈丢出了一张分量不轻的 " 英雄帖 "。
它宣布启动 2025 年度奥林帕斯奖(OlympusMons Awards),面向全球科研人员公开悬赏,拿出 300 万元,专门用来解决 AI 时代的数据存储与处理难题。


可以看出,这次华为盯上的,不是模型参数、不是应用玩法,而是 AI 继续往前跑时,最容易被忽略、却最先扛不住的那一层:数据存储与处理的底座。

但当大模型开始真正落地,尤其是 Agent(智能体)形式越来越清晰,问题就出来了:模型跑得快,数据系统却跟不上。
现在的数据,已经不是 " 存进去、用一次就完 " 那么简单了。
在 Agent 场景下,数据会被不断唤醒、重组、理解、推理,还会生成新的数据。
冷、温、热之间的边界被彻底打乱,数据几乎一直处在 " 随时可能被用到 " 的状态。
问题也正是从这里开始的。传统存储体系,是为 " 静态数据 + 低频访问 " 设计的。
硬套到 AI 场景里,结果只有一个:算力成本蹭蹭往上,协议栈越来越复杂,系统维护难度直线上升。

说得再直白一点就是:很多 AI 项目,不是卡在模型能力,而是卡在数据系统已经 " 喘不过气 "。
也正因为这样,华为这次奥林帕斯奖的出题思路,明显不是 " 锦上添花 ",而是奔着 " 补地基 " 去的。
先看第一个方向。它关注的不是 " 再快一点 ",而是一个更底层的问题:能不能让存储本身,承担一部分原本落在算力上的压力?
在 AI 时代,单纯靠堆算力,已经越来越不经济。于是," 以存补算、以存换算 " 这个思路被推到了台前。
简单理解,就是通过存储架构和介质层面的创新,让数据在被读取、索引、组织时就更 " 聪明 ",从而减少不必要的计算消耗。

再到更宏观的层面,重新设计层次化大内存的网络协议和 IO 路径,让数据在系统里的流转不再被传统结构拖慢。
这些听起来都很硬核,但背后的目标其实很现实:在性能、容量、成本和能耗之间,找到一个更适合 AI 长期发展的新平衡点。

当智能体开始具备 " 自主行动 " 的能力,数据系统的角色就发生了根本变化
它不再只是一个被动响应请求的仓库,而是需要主动理解数据的语义、结构和关联关系,能够为推理直接提供 " 可用的知识 ",而不是一堆原始素材。
这也是为什么,这一方向反复强调 " 原生 "" 语义 "" 知识凝练 "。

如何让大模型在推理时,拿到的是 " 恰到好处 " 的信息,而不是一整座数据山?
如果说第一条主线解决的是 "AI 跑得太费劲 ",那第二条主线关心的,就是 "AI 到底能不能跑得聪明 "。
当然,华为也很清楚,真正解决这些问题,不可能靠一家企业单打独斗。所以奥林帕斯奖本身,就是一个典型的产学研协同机制。
这次将评选 2 个奥林帕斯奖和 5 个先锋奖,300 万奖金只是表层激励,更重要的是,获奖团队可以直接进入华为的技术交流与产业验证体系,让研究不止停留在论文里,而是有机会真正落到系统和产品中。


它从 2019 年设立至今,已经吸引了来自 12 个国家、300 多位顶尖学者参与,累计颁发多个奖项,始终围绕数据存储的基础问题持续投入。
名字取自火星的奥林帕斯山,也是在明确告诉所有参与者:这是攀登基础技术高峰的长期工程,而不是追风口的短期竞赛。
所以回头看这次 300 万全球悬赏,华为真正想表达的其实很明确:AI 的上半场拼模型,下半场拼的是数据和存储这块 " 看不见的底座 "。
而这一次,华为选择把这块底座,认真拿出来打磨一遍。
