用过 OpenClaw 自带基础记忆的人,应该都懂那种挫败感。
刚聊到兴头上,前面好不容易喂进去的人设、偏好、规则,转头就被忘得差不多了。对话一长,Agent 像突然失忆,明明你前面说过的重点,它就是接不上。OpenClaw 自带的memory-lancedb本身更偏基础向量检索,这事儿在社区里其实也被反复提过,尤其是本地部署和长上下文场景里,大家对“记忆能力不够稳”这件事意见一直不小。
最近看到一个挺对症的开源插件:memory-lancedb-pro。
这玩意儿不是简单把向量库再包一层壳,而是直接把 OpenClaw 的长期记忆检索往“生产级”那边拽了一把。它在原来的向量搜索外,又补上了BM25 全文检索、混合召回、交叉重排、时效性加权、时间衰减、MMR 多样性筛选,还做了多作用域隔离、会话记忆、噪声过滤和管理 CLI。说白了,就是不想再靠“语义差不多”这种比较糙的方式去捞记忆,而是尽量把相关、最新、该拿出来的那几条真的捞出来。
我觉得它最有意思的一点,不是功能堆得多,而是思路终于对了。
Agent 记忆差,很多时候不是“存不下来”,而是“取不对”。你记了一堆东西没用,关键是当前这一轮对话,到底该把哪几条喂回模型。memory-lancedb-pro 这一套混合检索+重排,本质上就是在解决这个问题:别让模型吃到一堆边角料,也别把真正关键的信息埋掉。
另外,它的兼容性也比较现实。插件说明里直接写了,支持OpenAI-compatible embedding,可以接OpenAI、Gemini、Jina、Ollama这类接口;对平时自己折腾本地模型、或者接口混着用的人来说,这点很重要。毕竟很多人卡在记忆系统这一步,不是能力不够,是配置太挑环境。
还有个细节我挺喜欢:它自带CLI 管理工具。
这个东西看起来不性感,但真有用。因为一旦你开始认真用长期记忆,后面一定会遇到一个问题:记忆库到底写进去了什么,错了怎么查,脏了怎么清。能手动管理、审计和修正,至少说明它不是把“记忆”当成一个玄学黑盒来做。
所以如果你最近正好在折腾 OpenClaw,尤其已经被“小龙虾聊久了就失忆”这件事折磨过,这个插件确实值得试一下。
它不一定能一步把 Agent 变成“真正会思考的长期人格”,但至少先把最现实的一层补上了:该记住的别丢,该想起来的时候能想起来。
这件事,说起来不酷。 但对 Agent 来说,可能比再多一个花哨能力都重要。