大家好,我是何三,独立开发者

封面

$507/年 vs $10/年。

50 倍的差距。就差在"给 AI 加个记忆"这件事上。

你有没有算过,你跟 AI 聊了多久了?我算了一下,从去年开始重度用 Claude Code 到现在,差不多 6 个月。每天 3-4 小时的对话量,累计大概 1950 万 token。

这些对话里,每一个架构决策、每一次 debug 的过程、每一场"为什么选 Postgres 而不是 MongoDB"的争论——全都在会话结束的那一刻,蒸发了。

你换一个新会话,AI 像个失忆症患者,之前聊过什么一概不知。得从头介绍项目背景、技术栈、甚至你个人写代码的习惯。

这种感觉,就像跟一个每天失忆的同事协作。能力很强,但每次见面都得重新做自我介绍。

有人给这个问题算了笔账

MemPalace 的 README 里有个对比表,我看完愣了一下:

方案 每年成本
把所有对话粘贴进去 不现实,19.5M token 塞不进上下文
用 LLM 做摘要 ~$507/年
MemPalace wake-up ~$0.70/年
MemPalace + 5 次搜索 ~$10/年

说白了,AI 记忆这件事,不该花这么多钱。

而市面上现有的"AI 记忆"产品——Mem0、Zep、Letta——都在收月费。最便宜的 Mem0 也要 $19/月,Zep $25/月起,Letta 直接干到 $20-200/月。

MemPalace 全部免费,全部本地,零数据上传。

GitHub 上线 10 天,4.5 万 Star(近 5 万)。(我写到这的时候还在涨)

它怎么做到的?

名字就泄露了原理——MemPalace,记忆宫殿。

古希腊演说家 memorize 整篇演讲稿的方法:把要记的内容放进一栋想象中的建筑的各个房间里。走到哪个房间,就想起那个知识点。

说实话第一次看到这个命名的时候,我以为是个装修类项目。点进去才发现是给 AI 做记忆的。(那个瞬间挺离谱的。)

MemPalace 把这个概念搬到了 AI 记忆系统上:

  • Wing(翼):一个项目或一个人就是一栋翼
  • Room(房间):翼里面的具体话题,比如"auth 迁移"、"GraphQL 切换"
  • Hall(走廊):连接同一翼内的房间,分为 facts(决定)、events(事件)、discoveries(发现)、preferences(偏好)、advice(建议)五类
  • Tunnel(隧道):连接不同翼的同一个房间——比如你和同事张三都有个"auth 迁移"房间,隧道会把两边的记忆串起来

底下是 ChromaDB 做语义搜索,SQLite 做知识图谱。没有 Neo4j,没有云端,你电脑上跑就行。话说隔壁 Notion 的 AI 也开始搞本地化了,大厂终于知道隐私这事儿用户在意的。

有一说一,这个架构确实优雅。但实测数据摆在那里:

全量搜索60.9% R@10
按翼搜索73.1% R@10
+走廊84.8% R@10
+房间94.8% R@10

结构不是摆设,是真的在提升检索准确率。

最狠的是 $0,还不用 API

LongMemEval 是 AI 记忆系统的标准 benchmark。MemPalace 跑出了 96.6% R@5。

这是什么概念?比 Mastra(94.87%,但需要调 GPT API)高,比 Mem0(~85%,$19-249/月)高,比 Zep(~85%,$25+/月)高。

而且 MemPalace 这个分数是 raw 模式——不调任何 LLM API,纯 ChromaDB 语义搜索。零 API 调用,零成本。

有人在 HN 上独立复现了这个结果,在 M2 Ultra 上跑了不到 5 分钟。(Issue #39,感兴趣的可以自己去看)

用 HN 评论里一位开发者的话说:"We still think there's a real product here, just not the one the README is selling."

翻译一下:东西确实好用,但 README 吹过头了。

聊聊那个争议

说到 README 吹过头这件事,得展开讲讲。

MemPalace 上线 48 小时内,HN 上就被扒了好几个问题:

  1. AAAK 压缩语言的 token 计数是错的——作者用了 len(text)//3 这种粗略估算,而不是真正的 tokenizer。实际算下来,AAAK 在小文本上反而比原文还长
  2. "30 倍无损压缩"是虚假宣传——AAAK 是有损的,而且 benchmark 上分数从 96.6% 降到了 84.2%
  3. "+34% palace boost"有点误导——本质就是 ChromaDB 的元数据过滤,不算什么创新

创始人 Ben Sigman(对,不是那个演电影的 Milla Jovovich,README 里写错了)48 小时内发了一封公开信,逐条认错,态度相当坦诚:

"Brutal honest criticism is exactly what makes open source work. We're listening, we're fixing, and we'd rather be right than impressive."

翻译:被喷就认,该修就修。宁可做对了,也不装厉害。

这种态度,在开源社区其实挺难得的。(说到这里突然想起来,某些拿了融资的项目 PR 翻车了之后可没这么痛快认)

另外还有个离谱的事:有人开始仿冒 MemPalace 官网,甚至投放恶意软件。作者不得不专门发公告说"我们没有官网,任何声称是官网的都是假的"。

项目火了之后果然啥事都有。

实际怎么用?

我试了一下,核心就三步:

pip install mempalace

# 初始化你的记忆世界
mempalace init ~/projects/myapp

# 挖掘你的对话历史
mempalace mine ~/chats/ --mode convos

# 搜索
mempalace search "why did we switch to GraphQL"

支持 Claude Code、ChatGPT、Slack 的对话导出。三种挖掘模式:项目文件(代码和文档)、对话(convos)、通用(自动分类成决定、偏好、里程碑、问题、情感上下文)。

如果用 Claude Code,装起来更简单:

claude plugin marketplace add milla-jovovich/mempalace
claude plugin install --scope user mempalace

重启 Claude Code,AI 就自动有记忆了。29 个 MCP 工具可以直接调,你问"上个月我们关于 auth 做了什么决定",Claude 自动调 mempalace_search 返回原话给你。

不用手动敲命令,AI 自己会用。

装完了。没报错。神奇。

对了,它还支持本地模型。两种用法:mempalace wake-up 把关键信息灌进 system prompt,或者 mempalace search 按需查。全离线,Llama、Mistral 都行。

几个有意思的功能

知识图谱——时间感知的实体关系三元组,用 SQLite 实现。可以查"2026 年 1 月张三在做什么",带时间窗口的。比 Zep 的 Graphiti(Neo4j 云端)轻量太多。

Specialist Agents——可以给不同的 AI Agent 分配不同的"翼"和日记。比如 reviewer agent 只记 bug 模式,architect agent 只记设计决策。Letta 收 $20-200/月干这事,MemPalace 一个翼搞定。

矛盾检测——能发现记忆冲突。比如你之前说"张三负责 auth 迁移",后来又说"李四负责 auth 迁移",它会标红告诉你有矛盾。(目前还是实验性的,没完全接入知识图谱,作者在修)

同类工具推荐

如果你对 AI 记忆这个方向感兴趣,我还推荐看看这几个:

  • Mem0:最成熟的 AI 记忆方案之一,有 SaaS 也有自部署,功能更全但收费。适合对隐私不那么敏感、想要开箱即用的团队
  • Rekal:HN 上近期热帖,把 LLM 长期记忆塞进一个 SQLite 文件里,极简方案。和 MemPalace 的"记一切"理念相反,走的是精炼路线
  • Lodestar:MemPalace HN 讨论帖里提到的竞品思路——不存原始对话,只存"决策层"。把每轮对话结束时 AI 认为重要的东西,精炼成 markdown 提交到代码仓库。git clone 就带走了全部上下文

这几条路各有取舍:MemPalace 走"全量存储+结构化检索",Rekal 走"单文件极简",Lodestar 走"精炼+代码仓库绑定"。

适合自己的才是最好的。

值不值得装?

核心功能——本地存储、语义搜索、免费——是实打实的。96.6% 的 benchmark 有独立复现,$0 成本不是噱头,Claude Code 集成确实好用。

AAAK 压缩语言目前确实拉胯,但作者说得很清楚,96.6% 是 raw 模式的分数,AAAK 是实验功能。存储默认就是原始文本,不丢信息。

如果你是重度 AI 编程用户(每天 2 小时以上的 Claude/Cursor/ChatGPT 对话),这东西值得装。免费的,又不用上传数据,试一下的成本几乎为零。

偶尔用用 AI 的,感知可能不明显。得先积累足够多的对话,记忆宫殿才有东西可搜。

行了不说了,搬砖去了。

本文使用 MGO 编辑并发布

关注"何三笔记",回复"mgo" 免费下载使用