让ClaudeCode 实现相关记忆的工具

这意味着你无需反复进行相同的解释,也不会遗漏项目的历史进程,能有效节省时间和精力。该工具具备智能搜索功能,可快速检索过往工作内容;还配备网页查看器,支持实时查看记忆数据;同时提供隐私管控能力,保障敏感信息的安全性。此外,它通过数据压缩技术避免内存耗尽,可适配长周期项目的需求。
借助 Claude-Mem,你的 AI 助手将成为持续且贴心的协作伙伴,让你在不同会话间的工作内容保持连贯衔接。

在使用 Claude 这类大模型时,一个非常现实的问题很快就会出现:

对话一结束,模型就“什么都不记得了”。

这并不是 Claude 的缺陷,而是当前大模型交互方式的通病。模型天生是无状态的(stateless),一切“记忆”都只存在于单次上下文窗口中。

claude-mem 这个项目,正是针对这一点,给出了一个清晰、工程化的解决方案

项目要做的事,其实非常具体

先说结论:

claude-mem 并不是要让 Claude 变得更聪明,而是让它“连续”。

从项目介绍可以看出,它的目标非常明确:

  • 为 Claude 提供一个持久化的记忆层
  • 在每次请求时,根据当前对话内容:
  • 检索相关的历史信息
  • 自动注入到 prompt 中
  • 从而让 Claude 表现出“记得你之前说过什么”的效果

整个项目围绕一个核心思想展开:

记忆不在模型里,而在模型外。

claude-mem 的整体结构思路

从仓库的设计可以看出,它基本拆成了三件事:

Memory:存什么?

项目将“记忆”视为结构化信息,而不是完整对话记录,比如:

  • 用户的长期偏好
  • 已确认的重要事实
  • 持续进行中的项目背景
  • 明确需要被“记住”的信息

这一步的关键不在于“存得多”,而在于:

只存对未来对话有价值的内容。

Memory Manager:什么时候用?

并不是每一次请求,都需要把所有记忆塞给 Claude。

项目里非常强调一件事:

  • 记忆需要被筛选
  • 根据当前输入,匹配相关的历史内容
  • 只把“当前有用的部分”注入上下文

这本质上是一个记忆调度问题,而不是简单的上下文堆叠。

Prompt 注入:怎么“让 Claude 想起来”?

在实现上,claude-mem 选择了一种非常朴素、但也最稳妥的方式:

  • 在调用 Claude API 前
  • 将筛选出的记忆内容
  • 作为系统级或前置上下文拼接进 prompt

从 Claude 的视角来看:

这些记忆并不是“存储”,
而只是「你在对话一开始就告诉它的背景」。

这也是为什么这个方案不依赖任何模型内部能力

它是一个“示范型项目”?

从实际使用角度看,claude-mem 并不是那种:

  • clone → run → 立刻解决一切问题

的工具。

它更像是在回答一个工程问题:

如果我要给 Claude 加长期记忆,合理的最小设计应该长什么样?

它给出的答案是:

  • 明确区分:对话 ≠ 记忆
  • 记忆是可管理的数据,而不是聊天记录
  • 模型只负责“思考”,记忆由系统负责

这个思路,对于构建:

  • AI Agent
  • 私有助手
  • Bot 系统
  • 长期协作型 AI

Github:https://github.com/thedotmack/claude-mem
油管:https://youtu.be/2zOXlzOm4XI