本周的 AI 项目推荐,我们聚焦在 AI Memory 这个领域。这是一个还没有被太多目光注意到,但已经在融资动作和产品更新上呈现出 " 起飞 " 态势的方向。
一批名为 Mem"X" 的算法框架及产品,正在加入模型上下文的战争。
随着大模型被推向应用场景,一个根本性问题日益凸显:如何有效管理和记忆长上下文。无论是实现连贯的多轮对话,还是构建能长期服务用户的个性化 Agent,记忆的积累与调用都是核心。于是,在当前大模型的上下文限制下,RAG 也好,Agent 也好,都在某种程度上尝试提出补偿方案。
而现在,10000 个 AI 记忆框架也来了:Letta(MemGPT)、Mem0、MemU、MemOS...... 他们直接将记忆转化成一套可独立设计的工程体系,支持智能筛选信息、结构化存储、高效检索,为大模型装上了可插拔、可优化的 " 记忆外挂 "。
对 AI 初创而言,这也是一个绝佳的切入点:记忆是大模型实现真正可用性的刚需所在,而目前技术路线和应用场景差异化明显、竞争格局远未固化,且资本投资热度颇高。
我们整理了市面上主流的 AI 记忆算法框架、产品及其融资情况,也看看它们之间到底有什么区别。
Mem"X " 混战
Letta:https://github.com/letta-ai/letta
Letta 由加州大学伯克利分校的实验室孵化而成,项目最早在 GitHub 以 MemGPT 名义开源,后更名为 Letta,截止目前有 19K 星。
MemGPT 的核心是一个记忆管理流水线,也是记忆领域的元老级框架。
其论文显示,它将上下文划分为 Main Context(主上下文,即提示词) 与 External Context(外部上下文),允许 LLM 通过 MemGPT 来管理其自身的上下文,将不太相关的数据从主上下文(提示词)中移除并存储到外部上下文中,同理,也可以将相关的外部上下文召回到主上下文,从而实现信息在两者之间的迁移,让记忆持久化和即时可用 [ 1 ] 。

随后,LLM 会读取其完整的有限上下文,包括固定的系统指令、可变的工作上下文以及更新后的消息队列,并基于这些信息进行 " 思考 ",如果 LLM 能直接回答用户,就会生成一段文本回复。
但如果它判断需要利用长期记忆,比如查询用户的职业,它就会生成一个函数调用,由 Function Executor(函数执行器)捕获并执行,Function Executor 会与 Archival Storage(归档存储)交互,或调取回忆存储(Recall Storage)的记忆,检索所需信息,将结果,写回到 LLM 的工作上下文中。
这个更新操作相当于为 LLM 提供了一条新的关键信息,触发它进行新一轮的思考,生成一个更具个性化和上下文感知能力的回复,完成交互闭环。
2024 年,Letta 获得了 1000 万美元的种子资金,领投 Felicis Ventures,投资人包括硅谷大佬 Jeff Dean,2025 年持续迭代,推出 Letta Cloud(托管版)、本地 Docker 与桌面版三种部署方式。
Mem0:https://github.com/mem0ai/mem0
定位为 "AI 智能体的通用记忆层 ",与 MemGPT 的区别在于,用户的输入进入时,会和已有记忆进行相似性查询,融合、关联记忆,并调用工具操作,保持数据库的更新,而不是简单的先进先出的时序整理。
Mem0 在 GitHub 已获得 42.6K 星,Python 包下载量达 1400 万次。API 使用量呈指数级增长,从第一季度的 3500 万次调用增长至 2025 年第三季度的 1.86 亿次,成为了 AWS 新 Agent SDK 的记忆提供方。
论文显示,主要架构有 Mem0 和 MemO 两种互补的记忆架构 [ 2 ] :
其中,Mem0 的架构概览如下,在提取阶段,处理消息和历史上下文,以创建新的记忆;更新阶段将这些提取的记忆,与类似的现有记忆进行比较,并通过 Tool Call 进行相应的操作,例如增加、更新、删除、不操作。数据库作为中央存储库,为处理和存储更新后的记忆提供上下文,适合单跳和多跳推理任务。


MemU:https://github.com/NevaMind-AI/memU
前豆包和猫箱 Memory 算法负责人陈宏创办,定位为 " 为 AI 伴侣设计的下一代代理记忆系统 "。MemU 支持文本、图像、音频等多种数据类型,提供云、企业和社区自托管三种模式。项目于 2025 年 8 月发布,已在 GitHub 获得 2.8K 星,侧重 AI 角色扮演、虚拟偶像等场景。
MemU 设计理念的核心在于「基于 Agent 的记忆文件组织方式」 。
在记忆提取阶段,MemU 会将各个记忆项根据其类别,分组到专用的文档文件中,提供自主记忆代理,能自动决定何时记录、修改、归档或遗忘信息。每条记忆也会被视作更知识图谱中的节点。系统会动检测不同时间、不同模态间的联系,构建出个可动态演化的 " 经验络 ",像超链接档样可以被检索和遍历 [ 4 ] 。

Memobase:https://github.com/memodb-io/memobase
和 MemU 一样是基于文件的组织方式。Memobase 专注 " 基于用户画像的长期记忆 ",定位是为聊天机器人、AI 伴侣等应用打造 " 用户档案库 ",支持 Profile 和 Event 双线记忆管理,并即将推出 Schedule、Social 两类新的记忆结构 [ 5 ] ,在 GitHub 上有 2.3K 星。
Memobase 强调对性能、成本和延迟的平衡,通过为每个用户建立缓冲区来批量处理对话,确保在线响应速度低于 100ms [ 5 ] 。

MemOS:https://github.com/MemTensor/MemOS
MemOS 认为,「记忆」作为一个独立系统层,和计算、存储一样,是 AI 应用的基础能力。它的整体架构可以概括为三层: API 与应用接口层、记忆调度与管理层、记忆存储与基础设施层,更注重面向企业级的系统化记忆管理。
据其公开技术文档及论文显示 [ 6 ] :
在 API 与应用接口层,MemOS 提供了标准化的 Memory API,开发者可以通过简单的接口实现记忆创建、删除、更新等操作,支持多轮对话、长期任务和跨会话个性化等复杂应用场景。
在记忆调度与管理区层,别于其他记忆结构,其核心差异在于从记忆建模的视角出发,提出了记忆调度范式——通过设计异步调度框架,提前预测模型可能需要的记忆信息,例如用户正值旅游阶段,有关旅游的记忆和安排会提前被激活,从而降低实时生成中的效率损耗。
在记忆存储与基础设施层,MemOS 通过标准化的 MemCube 封装,将明文记忆、激活记忆和参数记忆(又分为内、外两种参数记忆,内参数记忆即微调进大模型)三种形态有机整合 [ 7 ] 。
如图所示,在这个环节,它还提供了记忆的过期策略、不同用户的访问控制、隐私保护、水印服务等合规设定,并支持多种持久化存储方式,包括 Graph 数据库、向量数据库,甚至构想了记忆的商业生态(MemStore),让记忆本身成为可以流通的商品。
总体而言,其核心思想是将 AI 的记忆像企业级数据一样进行专业化管理,通过分层解耦,区分了不同状态的记忆(内在 / 外在,激活 / 持久化),将记忆的应用、调度、治理、存储分开。
MemOS 背后的企业是记忆张量,2025 年 6 月记忆张量宣布完成了由孚腾资本、算丰信息、中金资本等知名机构共同投资的近亿元天使轮融资。
Memories.ai:
专注视觉记忆。成立于 2024 年,由前 Meta Reality Labs 的华人研究科学家 Shawn Shen 与 Ben Zhou 联合创立,能为 AI 提供持久、可检索的视觉记忆层。
Memories.ai 已经推出了 LVMM 1.0(Large Visual Memory Model)和 LVMM 2.0 两种架构。
其中,LVMM 1.0 将视频流解构为视频画面、语音、文本、元数据四个维度。在画面解析上,又拆分成框架结构、物体识别、动作理解、事件序列等结构化数据层,把视频解读并存储成更详细的数据,具体到每个片段帧的图文描述,把拆分好的结果存进数据库,并进行向量化和知识图谱,方便用户 query 来了进行索引 [ 8 ] 。

Memories.ai 的 LVMM 2.0 通过将原始视频转换为设备上的结构化记忆,对帧进行编码、压缩,并构建支持亚秒级搜索的索引。用户可以用通俗易懂的语言提出复杂的问题或使用图像提示,然后跳转到确切的时刻。在高通处理器上本地运行可降低延迟、降低云成本并将数据保持在本地以增强安全性,即使在网络边缘也能可靠地执行。
2025 年 7 月,Memories.ai 完成 800 万美元种子轮融资,领投方为 Susa Ventures,跟投包括 Samsung Next、Crane Venture Partners、Fusion Fund、Seedcamp、Creator Ventures 等。
Zep AI:https://github.com/getzep
Zep AI,一种面向 Agent 的新型记忆层服务,由其开发的 Graphiti 开源框架提供支持。Graphiti 是一个时间知识图谱框架,用于处理不断变化的关系并维护历史背景,其独特之处在于它能够自主构建知识图谱,同时还能推理状态随时间的变化。每个事实都包含 valid_at 和 invalid_at ,这使得智能体能够追踪用户偏好、特征或环境的变化 [ 9 ] 。截止目前,在 GitHub 上,Zep 有 3.7K 星,Graphiti 有 19.7K 星。

Second-Me ( by Mindverse ) :https://github.com/Mindverse/Second-Me。
Second Me 是 Mindverse 打造的 AI 身份模型,核心在于本地隐私训练、持续记忆对齐、开放生态,主张 " 训练你的 AI 自我 ",通过分层记忆模型(HMM)和自我对齐算法,使记忆能够随用户行为持续更新、保持一致性旨在捕获你的身份、理解你的情境,强调 100% 的隐私和控制权。

L0:原始数据层。该层类似于将 RG 等直接应用于原始数据,将记忆定义为所有非结构化数据。
L1:自然语言记忆层。该层包含可以用自然语言形式概括的记忆,例如用户的简短个人简介、重要句子或短语列表以及偏好标签。
L2:AI 原生记忆层。该层代表那些无需自然语言描述的记忆。相反,这些记忆通过模型参数进行学习和组织。
区别于其他 " 记忆文件外挂 ",Second Me 提出了首个基于个人文档记录的全自动后训练流程,构建了一个多层混合系统。
Supermemory:https://github.com/supermemoryai/supermemory
Supermemory 是一套面向 AI 应用的通用记忆 API,通过自研向量数据库、内容解析器、知识图谱以及丰富的 SDK/Connector [ 10 ] ,帮助个人和企业实现跨会话、跨模态、可持久的记忆,GitHub 上获得 13.2K 星。

支持导入文本、文件和聊天记录(支持多模态,包括文本、图像、文件、链接、视频帧);
模拟人脑实际运作方式,包括智能遗忘、衰退、近因效应、语境重写等,进行重新排序结果。
构建一个能够捕捉 " 记忆 "(模式、见解、背景)的知识图谱 。
举个例子,在以下场景中:



不存在绝对 " 正确 " 的路线,记忆框架的进化刚开始
从根本上看,当下的 AI 记忆框架(Mem"X")是 RAG 方案的进化产物。它们的核心身份仍然是一个外部记忆 API,但其职责不再是简单地提供事实知识库,而是像人脑一样,对原始信息进行处理、切割与重组,然后将消化过的 " 记忆 " 作为上下文,供大语言模型(LLM)或智能体(Agent)调取。
这种 " 记忆与处理分离 " 的架构,模拟了人脑中记忆存储区与逻辑处理区的分工,优雅地解决了 LLM 上下文窗口有限的难题。
然而,这也是一把双刃剑。由于记忆以 API 形式提供,且目前的记忆的处理更像是简单的切割和索引,主流平台又普遍支持记忆的迁移与备份,客户的切换成本相对较低,这使得市场难以形成绝对的 " 护城河 "。
另一方面,这也意味着这是一门高度工程化的 B 端服务业务。 客户对记忆方案的评估维度极为细分——价格、延迟、准确性、关联度、安全性,且效果反馈周期长。不存在一个 " 最好 " 的方案,只有 " 最适合 " 的方案。正是这种多样化的需求,催生了当前记忆框架在技术路线上的分野。
打个比方,如果 LLM 有限的上下文是计算机的 " 物理内存(RAM)",外部存储是 " 硬盘(Hard Drive)",那么不同的 Mem"X" 框架,就是针对不同场景设计出的 " 内存调度系统 "。它们都在回答同一个核心问题:记忆应该如何被组织和调度,才能最准确高效地在 " 硬盘 " 和 " 内存 " 之间换入换出?
目前,主流的记忆框架可以归结为三大类:
一类是将记忆管理设定为一种操作系统行为。
此路线将记忆管理视为一种宏观的、动态的系统行为。以 MemOS 为例,它会主动 " 整理 " 全部记忆,将其区分为不同状态(如明文记忆、激活记忆),并引入一个预测性调度框架。根据当前对话和用户画像,它能提前将可能需要的记忆 " 预加载 " 到准备区。这种方案的优势在于处理大规模、高并发的企业级记忆场景,追求整体的调度效率。
第二类是将记忆转化为知识图谱的 " 关联网络 ",Zep AI、Supermemory、Mem0^g、Memories.ai 都或多或少地提供了这一服务。
此路线的拥护者认为,记忆的力量在于关联。它们致力于将离散的记忆片段(" 用户喜欢咖啡 ")结构化为实体、属性和关系的 " 关联网络 "。这使得 AI 能够进行更复杂的逻辑推理。
例如,Zep AI 强调时间维度,能更新 " 用户上周喜欢咖啡,但这周失眠不能喝了 " 这类动态关系;而 Supermemory 则利用 LLM 自动从对话中提取关系,构建自增长的记忆网络。这条路线的记忆更新处理成本相对较高,更适合需要深度逻辑和状态追踪的场景。
第三类则是通过文件系统(File System),将记忆视为 " 归档资料 "。例如,MemU、Memobase,更侧重于记忆的组织、分类和应用。
此路线将记忆视为需要精确组织和分类的 " 归档资料 "。例如,Memobase 将用户的静态偏好和动态经历分开,以清晰的数据架构换取更低的检索延迟。而 MemU 的独特之处在于引入了一个自主记忆代理(Agent)来扮演 " 档案管理员 ",让 Agent 来管理记忆,而非简单地让记忆服务于 Agent。
此外,还存在如 Second-Me 这样的混合路线,它通过 " 全自动后训练 ",将部分记忆特征直接 " 刻进 " 模型参数中,实现了 " 外挂 " 与 " 内化 " 的结合。
这些路线并非完全互斥,许多项目正在融合多路线的优点。但更关键的趋势在于,记忆框架的 " 管理者 " 正在变得越来越聪明,从而避免被替代,形成数据的飞轮。
此前,以 MemGPT 为代表的初代框架,更像一个按固定规则整理书籍的 " 机械图书管理员 ",其管理逻辑是工程化的、静态的。而 2025 年涌现的新框架,如 MemU 和 MemOS,则越来越多地在记忆管理中引入 AI 或 Agent,使其成为一个能根据用户动态画像和上下文,自主学习和优化整理策略的 " 智慧图书管理员 "。
这种从 " 索引 API" 到 " 自主管理 " 的进化,是 AI 记忆框架的竞争焦点,即从基础的工程实现,转向如何构建一个更智能、更高效的记忆 Agent 体系。
2026 年,关于记忆的框架进化和竞赛,才刚刚开始。
参考资料:
[ 1 ] MemGPT: Towards LLMs as Operating Systems
[ 2 ] Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory
[ 3 ] Overview - Mem0 https://docs.mem0.ai/cookbooks/overview
[ 4 ] MemU Documentation - Complete Guide for AI Memory Integration
[ 5 ] What is Memobase? - Memobase
[ 6 ] MemOS: A Memory OS for AI System
[ 7 ] MemOS 算法原理概述 https://memos-docs.openmem.net/cn/overview/algorithm
[ 8 ] Introduction | Memories.ai
[ 9 ] ZEP: A TEMPORAL KNOWLEDGE GRAPH ARCHITECTURE FOR AGENT MEMORY
[ 10 ] How Supermemory Works - supermemory | Memory API for the AI era