MemU 是一款为 AI 系统打造的记忆管理工具,可将对话、文档、媒体素材等各类信息转化为结构化记忆,并存储在清晰的三层文件系统中。该工具既支持高速的嵌入向量检索,也能实现基于大语言模型的深度检索,兼容多类数据格式,提供云端部署与本地自建两种方案,同时配备简洁易用的接口。借助 MemU,你能构建出真正具备记忆能力的 AI 智能体:可留存过往交互记录、在需要时精准调取对应上下文,还能实现能力的持续迭代优化,让你的 AI 应用更精准、更具个性化,同时大幅提升运行效率。
让 AI 不再只是“当下聪明”,而是“持续记得”。
在大多数大语言模型(LLM)应用中,一个长期存在的问题是:
模型本身没有真正的记忆。
上下文窗口一结束,历史就被抹平;模型“看起来”理解你,但实际上并不会长期记住你。
memU 正是为了解决这个问题而出现的。
它不是一个模型,而是一个 面向 AI Agent 的记忆基础设施(Memory Infrastructure)。
memU 想解决的核心问题
在 Agent、Copilot、AI Companion 这类应用中,常见的痛点包括:
- ❌ AI 无法长期记住用户偏好
- ❌ 每次启动都是“失忆状态”
- ❌ 上下文只能靠 prompt 拼接,成本高、效果不稳定
- ❌ 记忆是非结构化文本,难以管理与演化
memU 的目标可以一句话概括:
把「记忆」从 prompt 和模型参数中剥离出来,变成一个可管理、可演化的系统层。
什么是 memU?
memU 是一个为 LLM / AI Agent 提供长期记忆能力的框架,它负责:
- 接收 AI 交互过程中的信息
- 抽取、整理并存储为“记忆单元(Memory Units)”
- 在合适的时机,将相关记忆检索并提供给模型使用
你可以把 memU 理解为:
🧠 AI 的“海马体 + 笔记系统 + 文件柜”
memU 的整体架构思路
从设计理念上看,memU 把“记忆”拆成了几个关键层次:
记忆输入(Memory Ingestion)
- 来自对话、任务执行、文档、环境状态等
- 可以是文本,也可以是多模态信息
- 并不是“全量存储”,而是选择性记忆
记忆抽取与结构化(Memory Structuring)
memU 不只是存原始文本,而是会把信息整理成:
- 用户偏好
- 事实性信息
- 行为模式
- 长期目标或约束
这些内容会被组织成结构化的记忆单元,而不是一堆对话日志。
记忆存储(Memory Storage)
- 分层 / 分类型存储
- 可基于文件系统、数据库或向量库
- 记忆是可追踪、可修改、可删除的
记忆检索(Memory Retrieval)
memU 支持多种记忆调用方式:
- Embedding 相似度检索(RAG)
- 由 LLM 直接参与判断的语义检索
- 基于任务/上下文的定向记忆唤醒
重点是:
👉 不是“全塞给模型”,而是“只给此刻最有用的记忆”
memU 与传统 RAG 的区别
| 维度 | 传统 RAG | memU |
|---|---|---|
| 核心目标 | 文档问答 | 长期记忆 |
| 存储内容 | 静态知识 | 动态、演化的个人/Agent 记忆 |
| 结构 | 文本块 | 结构化记忆单元 |
| 生命周期 | 一次性 | 长期、可更新 |
| 使用对象 | 查询 | Agent 决策与行为 |
memU 更像是 Agent 的“人格与经验层”,而不是知识库。
应用场景
memU 特别适合下面这些场景:
🤖 AI Agent / Autonomous Agent
- 记住任务执行历史
- 累积策略与经验
- 避免重复试错
💬 AI 伴侣 / 情感型助手
- 记住用户习惯、情绪模式
- 建立长期关系感
- 避免“每次都像第一次见面”
🎓 教育 / 学习助手
- 跟踪学习进度
- 记住用户薄弱点
- 个性化长期教学策略
🧑💼 智能客服 / Copilot
- 记住用户背景
- 跨会话保持一致性
- 减少用户重复解释成本
Github:https://github.com/NevaMind-AI/memU
油管:https://youtu.be/Q6fJsOuuFRM