
1. 基于腾讯云向量数据库的企业级记忆能力
在 Free 版中,TencentDB Agent Memory 已通过四层记忆架构实现长期记忆增强,并在 PersonaMem 评测集上将总准确率从 47.85% 提升到 76.10%。
这次 Pro 版进一步把底层升级为腾讯云向量数据库,重点增强企业级场景下的三类核心能力:
● 召回更稳:支持 Embedding + 关键词双路检索,在复杂场景下更容易找到真正相关的历史信息
● 治理更强:支持备份、回档、数据保护,降低记忆资产丢失风险
● 使用更灵活:记忆资产与运行实例解耦,便于统一管理和迁移
简单说,Free 版解决的是“能不能记住”,Pro 版进一步解决的是“记忆能不能在企业环境里稳定用起来”。

2. 更省 Token,更高任务完成率
长任务里最常见的问题,不是模型不会做,而是上下文会越跑越重。
举个例子:让 Agent 做一份竞品分析报告。它需要分别搜索竞品 A、竞品 B、竞品 C 的产品信息,再查各家的融资动态和技术方案,最后汇总成对比表。每一步搜索返回约 2000 字原文,其中真正有用的可能只是"竞品 A 最新融资 2400 万美元、主打向量检索"这样一句结论。到汇总步骤时,上下文里已经堆了上万字的搜索引擎原文,绝大部分是广告、无关链接和重复信息——它们占着宝贵的 Token 额度,却对完成任务毫无帮助。
2.1 业界常见的三类解决方案
路线一:检索更精准,少塞信息。
它的思路不是压缩上下文,而是让每次记忆检索更精准——通过语义、关键词、实体三路并行评分,只返回最相关的少量记忆片段。核心收益来自"少塞"而非"压缩"。局限在于,它不管理 Agent 的执行过程,不知道任务走到了哪一步。
路线二:分层存储,按需加载。
用虚拟文件系统的范式组织上下文,写入时自动生成三层——摘要、概览、完整原文。Agent 先看摘要判断相关性,相关的才加载概览,真正需要深入的才读全文。它的强项是管理大量外部知识(文档、代码库、用户记忆),但不直接管理 Agent 在执行任务过程中产生的中间状态。
路线三:OS 式虚拟内存
借鉴操作系统的虚拟内存机制,把上下文窗口当作"物理内存",外部存储当作"磁盘",通过分页换入换出让 Agent 理论上拥有"无限上下文"。LLM 自己决定什么时候把旧信息换出、什么时候把历史调回来。思路优雅,但效果依赖模型的自主判断能力。
快速对比:业界 Token 节省方案一览
路线 | 核心做法 | 管理对象 | 任务方向感 |
|---|---|---|---|
检索优化 | 多信号精准检索,只返回最相关的记忆片段 | 历史记忆 | ❌ 无 |
分层存储 | 虚拟文件系统 + L0/L1/L2 三层按需加载 | 外部知识 | ❌ 无 |
虚拟内存 | OS 式分页,LLM 自主换入换出 | 对话历史 | ❌ 依赖模型自主判断 |
短期记忆压缩(TencentDB Agent Memory) | 符号化压缩 + Mermaid 任务地图 + 三级水位自动触发 | 执行过程 | ✅ 结构化任务拓扑 |
这三条路线各有侧重,但有一个共同的空白:它们都不管理 Agent 执行任务过程中的"方向感"。
检索优化让 Agent 更快找到历史记忆,分层存储让外部知识按需加载,虚拟内存让上下文窗口可以弹性伸缩——但当 Agent 在一个 50 步的长任务中走到第 30 步时,它仍然缺少一个结构化的"地图"来告诉自己:哪些步骤已完成、哪些正在进行、哪些步骤之间有依赖关系、接下来该做什么。
这正是 TencentDB Agent Memory Pro 版的短期记忆压缩要解决的问题。它不只是让上下文变短——更重要的是,让 Agent 在更短的上下文里依然知道自己在哪。
2.2 符号化压缩:用更少的 Token 表达等量的信息
短期记忆压缩的第一个核心能力是符号化压缩(Symbolic Compaction)——用更少的 Token 表达等量的信息。这里的"压缩"分两层:
第一层:摘要压缩——去掉废话,留下事实。一次搜索返回 2000 字原文,真正有信息量的可能只是"竞品 A 最新融资 2400 万美元...."这一句话。系统将它提炼为一行结构化摘要,例如:“[搜索 done] 竞品A: 融资$24M, 客户200+ | ref: refs/001-N1.md”——80 字表达 2000 字的核心信息,压缩比 25:1。同时末尾的 ref 指针指向磁盘上的原始全文,需要时随时回查。
第二层:结构化图压缩——用一张图替代一堆文字。
摘要压缩解决的是单条信息的密度问题,但当一个任务涉及十几步操作时,单纯的摘要列表依然是线性的、平铺的,模型很难从中看出"哪些步骤是并行的、哪些有因果依赖、任务整体走到了哪里"。更极致的压缩,是改变信息的表示形式本身——用一张结构化的图来组织这些摘要。
我们选择的符号载体是 Mermaid Flowchart。原因很直接:它在 GitHub、技术文档、教程中广泛存在,所有主流大模型在预训练阶段就大量见过,能准确读写。一张流程图的信息密度远超等长的自然语言文本:
● 空间关系即语义:节点之间的箭头就是因果关系,不需要额外文字描述
● 状态标记即进度:done/doing/todo 三个词替代了长篇的进度汇报
● 拓扑结构即全局观:图的"形状"本身就在传递信息——扇出表示并行搜索,扇入表示多源汇总
举个直观的例子。同样是"竞品分析报告"这个任务,用自然语言描述进度可能需要一段话:“已完成竞品 A、B、C 三家的产品搜索,已查到各家融资和技术方案,正在进行汇总对比表的整理”。而用一张 Mermaid Flowchart:

整个过程完全自动:Agent 每次调用工具后,系统在后台异步完成"存原文、留摘要、建索引、更新地图",不阻塞主对话流程。原始数据永远存在磁盘上,压缩的只是上下文中的副本,需要时随时可以按节点编号回查原文。
2.3 Mermaid 任务地图:给 Agent 装一张作战地图
上面讲的是单个任务内的压缩。但实际使用中,用户往往在同一个会话里连续处理多个不同任务。比如写完竞品分析,又做技术选型调研,再整理会议纪要……每个任务都会产生大量工具调用。如果没有组织机制,Agent 很快就会"迷路"——分不清哪些信息属于哪个任务,也不知道当前任务走到了哪里。
这正是 Mermaid 任务地图的用武之地。系统为每个任务维护一张独立的 Flowchart,并通过"折叠 / 展开 / 复活"策略管理它们在上下文中的存在:当前任务的地图完整展开,Agent 随时能看到全貌

2.4 三级处理:分层压缩的运行逻辑
在工程实现上,短期记忆压缩采用三级分层压缩策略,根据上下文的"水位"自动触发不同级别的处理:
● L1 摘要(实时):Agent 每次调用工具后,系统异步将工具返回的原始结果存入磁盘,并生成一行高密度摘要。当上下文占比达到 60% 时,自动用摘要替换原文——这是"温和压缩",信息损失最小。
● L2 地图(异步):系统定期根据已积累的摘要,自动绘制或更新 Mermaid 任务地图,并注入到上下文中。完成的任务会被"折叠"为一行摘要,当前任务的地图则完整展开。
● L3 深度压缩(同步):当上下文占比达到 80% 时,触发"激进压缩"——直接清理不再相关的旧任务消息,为当前任务腾出空间。若水位突破 95%,则触发紧急压缩,一次性将上下文降到 60% 以下。

2.5 实测效果
在覆盖代码生成、长难任务、网页搜索、文章分析四大场景的 1540 道测试题中,这套机制将任务完成率提升 12%–35%,同时 Token 消耗降低 33%–64%——效果更好的同时,成本更低。

3. 快速启用
目前 TencentDB Agent Memory Pro 版 已上线至 ClawPro 最新版本中,您可以前往ClawPro的管控端,点击左侧的 记忆管理 后快速开启。

4. 结语
TencentDB Agent Memory Pro 版不仅将记忆能力升级到企业级的标准,也让 Openclaw 的长任务执行方式变得更轻、更稳。真正将Openclaw变成企业中能持续积累、能按需调用、能完成任务的最重要的 Agent 资产。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。