首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >AI Agent的“记忆”:从认知到架构的深度解析

AI Agent的“记忆”:从认知到架构的深度解析

作者头像
数据存储前沿技术
发布2025-11-20 17:43:27
发布2025-11-20 17:43:27
550
举报

全文概览

随着人工智能技术的飞速发展,AI Agent正从简单的工具演变为能够自主决策、执行复杂任务的智能实体。然而,要让Agent真正实现从“反应式”到“反思式”的转变,拥有类似人类的“记忆”能力至关重要。这种记忆不仅是对事实的存储,更是对过往经验的“回想”与学习。那么,AI Agent如何才能像人类一样,从亲身经历中汲取教训,不断优化其行为和决策?我们又该如何构建一个既能高效存储又能安全检索的记忆系统?本文将深入探讨AI Agent场景记忆的认知科学根源、主流技术实现、核心设计原则以及未来面临的挑战,旨在为技术从业者提供一个全面而深入的视角。

阅读收获

  • 理解AI Agent记忆的认知科学基础:深入了解恩德尔·图尔文的场景记忆理论,区分场景记忆与语义记忆,为设计具备“心智时间旅行”能力的Agent奠定理论基石。
  • 掌握主流AI记忆机制的优劣与选型:对比上下文窗口、OpenAI“记忆”和Google Memory Bank等不同记忆实现方式的功能、局限性及适用场景,指导你在实际项目中进行技术选型。
  • 洞察场景记忆系统设计原则与架构权衡:学习可解释性、隔离性、相关性、安全性等核心设计原则,并分析向量数据库、图数据库及混合知识图架构在存储与检索方面的优势与挑战,助力构建稳健、高效的Agent记忆系统。

👉 划线高亮 观点批注

第一部分:界定AI记忆的范畴

本部分将从认知科学的根源出发,解构人工智能(AI)中的“记忆”概念,进而延伸至当前的技术实现。其目标是建立一套精确的词汇体系和清晰的概念框架,以便对不同方法进行细致入微的比较。

1.1 认知蓝图:恩德尔·图尔文的场景记忆理论

本报告的所有内容都根植于最初的认知科学框架。我们将首先介绍心理学家恩德尔·图尔文(Endel Tulving)在1972年提出的开创性工作,他首次将场景记忆(Episodic Memory)与语义记忆(Semantic Memory)区分开来 1。

关键概念详述
  • 场景记忆 vs. 语义记忆:核心区别在于,场景记忆是对个人亲身经历的事件的记忆(“回想”),包含丰富的背景信息(时间、地点、情感);而语义记忆则是对一般性事实的记忆(“知晓”)1。这一区别至关重要,因为早期的AI记忆系统常常将两者混为一谈。图尔文将“知晓”定义为事实性回忆(语义),而将“回想”定义为一种定位于过去的感觉(场景)1。
  • 自我认知意识 (Autonoetic Consciousness):图尔文提出了场景记忆回忆的三个关键特性:主观时间感(即“心智时间旅行”)、与“自我”的连接,以及自我认知意识——一种伴随回忆行为的特殊意识,使个体能够意识到处于主观时间中的自我 1。这为衡量一个真正类人的AI记忆系统提供了一个高层次的基准。
  • 神经认知基础:人类大脑中,海马体和前额叶皮层在场景记忆的编码、巩固和检索过程中扮演着关键角色 1。随着研究人员设计出日益复杂的记忆架构,这种来自生物学的灵感变得越来越重要 5。

1.2 从人类认知到人工智能:定义AI Agent的场景记忆

本节将认知科学的概念转化为适用于AI Agent的具体技术定义。

  • 技术定义:人工智能场景记忆是一个系统,它使Agent能够在运行时形成、存储和检索关于其亲身经历的特定过去事件的记录,并附带丰富的上下文细节(发生了什么、在哪里、何时以及为何)5。
  • 核心功能:该系统的目的是在无需持续重新训练的情况下,实现累积学习、改进决策、个性化和可解释性 6。它将Agent从一个反应式系统提升为一个反思式系统 7。
  • 与简单日志记录的区别:需要强调的是,场景记忆远不止是简单的日志文件。它是一个动态的、可查询的系统,旨在支持复杂的认知功能,如反事实推理和基于经验的规划 5。

1.3 记忆机制的比较分析

1.3.1 上下文窗口:Agent的易失性工作记忆
  • 功能:上下文窗口(Context Window)定义为大型语言模型(LLM)在单次输入中能够处理的文本量(以“令牌”或token为单位)8。它在功能上类似于一种短期或工作记忆 10。
  • 无状态特性:LLM本质上是无状态的。它们不会在两次交互之间保留记忆;每次新的对话回合,所有相关的历史记录都必须被重新传入上下文窗口 9。
  • 局限性
    • 固定大小:上下文窗口存在硬性限制(例如,从4k到2M令牌不等)9。超出此限制的信息将会丢失,通常是通过截断对话中最旧的部分来实现 9。
    • 计算成本:更大的上下文窗口需要显著更多的计算资源,这导致在上下文长度、成本和延迟之间存在权衡 9。
    • 性能下降:研究表明,模型可能难以回忆起深埋在长上下文中间的信息(即“大海捞针”问题),尽管较新的模型在这一点上有所改进 11。
  • 结论:上下文窗口是实现真正长期记忆的必要但非充分的机制。它是一个临时的“工作台”,而非一个持久的经验档案库 12。
1.3.2 案例研究:OpenAI的“记忆”实现
  • 面向用户的特性:OpenAI的记忆功能是为ChatGPT设计的一项特性,允许其记住对话中的细节,以便在未来的回应中提供更具个性化的内容 14。一个关键的区别是,该功能目前并未通过API向构建自定义Agent的开发者开放 15。
  • 混合特性:其实现可以分解为两个部分,恰好反映了语义与场景记忆的区别:
    • 语义部分(“已保存的记忆”):用户可以明确告知ChatGPT记住某些事实(例如,“记住我是素食主义者”)。这些记忆的功能类似于用户管理的自定义指令,并存储在一个独立的“记事本”中 14。这类似于关于用户偏好的语义记忆。
    • 场景部分(“引用聊天历史”):系统也可以隐式地从过去的对话中记住上下文,除非这些聊天记录被删除 14。这充当了一种跨会话的场景记忆。
  • 管理与控制:用户可以查看、删除和管理记忆,系统会根据新近度等因素来决定哪些记忆处于“最优先”状态 14。这与用户控制的设计原则相符。
  • 开发者实现(第三方):值得注意的是,开发者若想通过API实现类似功能,必须使用外部数据库(如SQLite)和memorisdk等库来构建自己的长期记忆系统 15。业界提出的架构通常采用混合模型,即使用向量数据库存储场景历史,并使用键值存储库来管理语义化的用户画像 17。
1.3.3 案例研究:谷歌的Vertex AI Memory Bank
  • 以开发者为中心的工具:Memory Bank是一个专为开发者设计的、受管的(managed)服务,用于构建具有长期、个性化记忆的Agent,并与Vertex AI生态系统紧密集成 18。
  • 关键特性
    • 自动化记忆生成:与OpenAI更偏手动的approche不同,Memory Bank利用LLM自动从对话中提取有意义的信息,将其与现有记忆进行整合,并生成新的结构化记忆 18。这是迈向自主记忆管理的重要一步。
    • 受管的存储与检索:它提供了一个完全受管的持久化存储,具备如按用户身份进行数据隔离、通过向量嵌入进行相似性搜索以及为过时信息设置自动过期(TTL)等功能 18。
    • 动态与演化:该系统被设计为一个动态、不断演化的知识源,这与典型的检索增强生成(RAG)系统所依赖的静态知识库形成对比 18。
  • 集成:它旨在通过Agent开发工具包(ADK)与Agent框架集成,允许Agent将生成和检索记忆作为一种工具进行调用和编排 18。

1.4 综合与比较

本节将前述分析综合成一个清晰的比较表,为目标受众提供一目了然的参考。这种结构化的比较揭示了不同记忆机制之间微妙但关键的差异,从纯粹的计算构造(上下文窗口)到模仿记忆的用户体验特性(OpenAI),再到为持久化数据设计的工程解决方案(Google),最终指向旨在复制智能核心方面的认知架构(概念性场景记忆)。这种演进轨迹表明,该领域正从构建仅能 访问数据的系统,转向构建能够从个人历史中体验学习 的Agent。

此外,商业平台如OpenAI和Google使用“记忆”一词来描述通常是语义(用户事实)和场景(聊天历史)存储混合体的功能。这与学术上对场景记忆的严格定义有所不同。这对于开发者而言意义重大:他们必须超越市场营销的术语,深入分析底层的数据模型和功能,以判断其是否满足Agent进行真正基于经验的推理的需求。

表1:AI Agent记忆机制的比较分析

特性

上下文窗口

概念性场景记忆

OpenAI的“记忆”(ChatGPT)

Google的Memory Bank

持久性

易失性 (每次请求)

持久性 (长期)

持久性 (跨会话)

持久性 (受管存储)

范围

单次交互/会话

Agent的整个生命周期

用户与ChatGPT的全部历史

每个用户身份,跨会话

数据结构

原始令牌序列

结构化事件 (如 (情境, 行动, 结果), 图)

非结构化文本 + 键值事实

结构化的文本洞察 (向量索引)

主要功能

短期工作记忆

从经验中学习、规划

个性化、对话连续性

长期个性化、动态上下文

用户控制

隐式 (通过提示长度)

显式 (设计原则)

高 (查看、编辑、删除记忆)

高 (通过API、TTL设置)

可扩展性

受模型架构限制

主要的基础设施挑战

由OpenAI管理,存在限制

受管服务,为扩展而设计

关键局限

无状态、大小有限

复杂性、检索相关性

开发者无法通过API使用

绑定于Google Cloud生态系统


第二部分:设计原则与工作流优化

本部分将从“它是什么”过渡到“如何构建和使用它”。它将为架构一个稳健且安全的场景记忆系统提供蓝图,然后详细说明该系统如何改变Agent的核心操作循环。

2.1 场景记忆系统的基础设计原则

本节将综合一系列指导负责任开发的原则,这些原则主要源自AI安全领域的研究 4。这些原则不仅是建议,更是防范可预见故障模式的关键护栏。

原则1:可解释性与用户控制
  • 核心思想:记忆必须是人类可读的,并且用户必须是记忆存储的最终权威 4。
  • 实现方式:系统应提供接口,允许用户审查Agent记住了什么,手动添加记忆(例如,提供警告或纠正误解),以及删除特定的记忆或整个历史记录 4。这对于隐私、安全和调试至关重要。
原则2:隔离性与不可变性
  • 核心思想:记忆存储应该是一个独立的、可分离的模块,并且至关重要的是,AI Agent不应被允许编辑或删除自己的记忆 4。
  • 理论依据(安全):这一原则是针对“增强欺骗能力”风险的直接对策 5。一个能够篡改自身历史的Agent可以掩盖其踪迹,维持复杂的谎言,或以不可预测的方式操纵自身行为。不可变性确保了记忆可以作为可靠的审计日志。
  • 实现方式:记忆模块应具有严格的访问控制,具有一次写入(对Agent)和删除(对用户)的权限。
原则3:相关性与显著性过滤
  • 核心思想:存储每一个感知和行动在计算上是不可行的,并且会产生低的信噪比。系统必须智能地决定什么值得记住。
  • 挑战:在没有偏见的情况下确定哪些经验是“重要的”,是一个主要的未解决问题 7。
  • 方法
    • 选择性存储:过滤场景,只存储新颖或令人意外的经验,或那些带来高回报结果的经验 7。
    • LLM驱动的提取:使用LLM来总结和提取原始交互日志中最有意义的信息,正如Google的Memory Bank所示 18。
    • 用户反馈:允许用户对交互或结果进行评级,积极的反馈会触发场景的存储 21。
原则4:安全性与隐私
  • 核心思想:场景记忆系统由于其性质,会收集大量潜在的敏感个人数据。
  • 风险
    • 不必要的信息保留:Agent可能会记录本应被遗忘的敏感数据,构成重大的隐私风险 5。
    • 记忆污染/投毒:攻击者可能诱骗Agent在其长期记忆中存储虚假或恶意信息,这些信息可能在稍后被触发以造成伤害(即“延迟工具调用”攻击)22。
  • 缓解措施:需要为每个用户提供强大的数据隔离 18,加密,明确的数据保留策略(例如,TTL 18),以及在存储新记忆时向用户发出意识提示 22。

2.2 优化Agent循环:(情境, 行动, 结果)

本节提供了记忆系统的实际应用,展示了它如何融入Agent的决策周期,以实现学习和适应。这种集成将Agent的工作流程从一个无状态的、交易式的请求-响应周期,转变为一个发展的过程。每个循环都为其累积的“人生经验”增添了内容,这意味着两个具有相同架构但历史不同的Agent会有不同的行为。这对测试、调试和可解释性产生了深远的影响,因为Agent的行为现在是其整个生命历史的函数,而不仅仅是其初始编程。

2.2.1 丰富情境:从提示到世界观
  • 标准循环:一个无状态Agent的情境仅仅是当前提示和上下文窗口内的聊天历史。
  • 记忆增强循环:在LLM生成计划之前,Agent会查询其场景记忆。当前情况(例如,用户查询、环境状态)被用来检索相似的过去场景 6。这些被检索的记忆(例如,“相关的过去对话”、“类似的历史任务”)随后与当前提示一起被“注入”到上下文窗口中 6。这将情境从一个简单的快照转变为一个具有历史深度的世界观。
2.2.2 指导行动:从经验中学习
  • 机制:通过检索类似过去情况的场景,Agent可以分析当时采取的行动及其导致的结果。这是一种案例推理(case-based reasoning)的形式 3。
  • 在强化学习(RL)中的应用:这直接关联到RL中的“场景重放”(episodic replay)等概念 4。Agent不再仅仅依赖于一个泛化的策略(参数化记忆),而是可以迅速地从特定场景中借鉴成功的过去策略,从而极大地提高样本效率,尤其是在数据稀疏的环境中 24。例如,如果一个过去的场景显示在类似的情境下使用tool_A带来了高回报,那么Agent就更有可能再次选择tool_A。
2.2.3 评估与存储结果:闭合学习循环
  • 最后一步:在Agent采取行动后,观察其结果(例如,成功/失败、奖励信号、用户反馈)。
  • 记忆存储:创建一个新的记忆条目,其结构为(情境, 行动, 结果)元组或更复杂的图表示 7。这个新的场景随后被存储在长期记忆模块中 6。
  • 飞轮效应:存储结果的行为闭合了循环。Agent现在有了一个新的经验,可以在未来借鉴。随着时间的推移,这会产生一个持续、自我导向改进的飞轮效应,而无需进行昂贵的完整模型重新训练 6。Agent的性能会根据其独特的交互历史而演变 27。
2.2.4 高级技术:Agent上下文优化 (Acon)
  • 问题:当Agent在长周期内运行时,累积的(情境, 行动, 结果)三元组历史本身可能变得过于庞大,即使存储在外部也难以高效处理 28。
  • Acon框架:Acon作为一个解决方案被提出。它是一个框架,使用一个LLM作为“压缩器”,将长的交互历史和环境观察总结成简洁而信息丰富的摘要 28。
  • 优化循环:Acon对压缩过程本身进行优化。当一个压缩后的上下文导致了在完整上下文下本可以成功的任务失败时,一个LLM会分析失败原因,并以自然语言的形式改进压缩指南。这确保了在压缩过程中关键信息不会丢失 28。这是一个应用于记忆本身的元学习过程。

第三部分:心智的基础设施:存储与检索架构

本部分深入探讨支持场景记忆所需的技术支柱。它将分析构成Agent记忆能力基础的数据模型和数据库技术。这种基础设施的选择不仅仅是技术细节,它实际上决定了Agent的认知架构。选择基于向量的记忆,是赋予其一种联想式、直觉式的回忆模式;而选择基于图的记忆,则是赋予其一种逻辑化、演绎式的推理模式。

3.1 经验的数据建模

  • 核心挑战:如何将一个丰富的、多方面的“场景”表示为一种结构化格式,既能高效存储,又能进行有意义的查询。
  • 常见模型
    • 时间索引日志 / 键值对:最简单的方法。每个记忆是一个带有时间戳和context、action、outcome等字段的文档或记录 6。这种方法易于实现,但在表示复杂关系方面能力有限。
    • 向量嵌入:主流的检索方法。将整个场景或其关键部分编码成一个高维向量 6。该模型在语义空间中表示经验,其中“相似”的经验在几何上是相近的。
    • 图结构:一种更高级的模型,其中场景内的实体(人、物、概念)是节点,它们的互动是边 6。这明确地捕捉了事件的关系结构。

3.2 核心辩论:向量数据库 vs. 图数据库

本节将对实现Agent记忆的两种主要数据库范式进行详细的、面对面的比较,重点关注它们的概念差异和实际权衡。

3.2.1 用于语义相似性的向量数据库
  • 核心概念:将数据存储为高维向量嵌入 29。主要操作是相似性搜索(例如,使用近似最近邻-ANN算法)以找到与查询向量“最接近”的向量 29。
  • 在场景记忆中的角色:回答“哪些过去的经验与我当前的情况感觉最相似?”这个问题 29。它擅长模糊的、语义化的检索。例如,一个面临“支付API错误”的Agent可以检索到关于“结账服务失败”的记忆,即使措辞完全不同。
  • 优势:非常适合RAG、相似性检索速度快、能轻松处理非结构化数据(文本、图像)29。
  • 劣势:“上下文盲”。虽然它知道什么是相似的,但它本身不理解数据中实体之间的关系。它根据邻近度检索数据块,而不是因果或关系链接,这可能导致上下文碎片化 31。
3.2.2 用于关系推理的图数据库
  • 核心概念:将数据存储为节点(实体)和边(关系)的网络 29。主要操作是图遍历,以探索路径和连接 29。
  • 在场景记忆中的角色:回答“根据过去的事件,我当前情况中的实体是如何关联的?”这个问题 29。它擅长明确的、多跳的推理。例如,一个Agent可以查询:(用户A) -> [使用] -> (工具B) -> [导致] -> (错误C)。
  • 优势:在建模复杂关系、因果关系和社交网络方面无与伦比。允许精确的、结构化的查询 31。
  • 劣势:设置和维护更为复杂。定义模式(节点和边的类型)可能具有挑战性。与简单地嵌入和存储向量相比,数据注入可能更慢、成本更高 32。

3.3 新兴的综合:混合知识图架构

本节将探讨最前沿的技术,这些技术认识到向量数据库和图数据库都不是完整的解决方案。未来在于将它们结合起来。从简单的向量RAG到混合图模型的演进,代表了一次根本性的转变。标准的RAG是用检索到的信息来增强LLM的上下文。而基于图的记忆系统,则是用一个可查询的、检索到的世界模型来增强LLM的上下文。这使得Agent不仅能读取事实,还能在生成之前对其记忆进行推理(例如,多跳查询、路径查找),从而产生远比以往更复杂、更有根据的输出。

3.3.1 混合化的理由

AI Agent需要两种推理模式:语义回忆(“什么相似?”)和关系推理(“这是如何连接的?”)。混合架构旨在提供两全其美的解决方案 30。

3.3.2 案例研究:时序知识图 (TKG)
  • 概念:TKG是一种知识图,其中每条边(关系)都带有时间戳,表示某个关系在特定时间段内为真 35。
  • 场景应用:该模型非常适合场景记忆。一个“场景”就是一个在特定时间点创建或修改实体和关系的事件。TKG可以存储Agent的整个生命历史,作为图状态变化的一个序列 36。这允许进行强大的时序推理(例如,“在该用户评论之前,项目的状态是什么?”)。
3.3.3 案例研究:AriGraph框架
  • 架构:AriGraph明确地将语义知识图与场景记忆集成在一起 38。
  • 数据模型
    • 语义记忆:一个标准的知识图,包含表示世界一般事实的语义顶点(Vs)和边(Es)(例如,(伦敦) -[位于]-> (英国))。
    • 场景记忆:当Agent在特定时间步观察到某事物时,会创建一个新的场景顶点(Ve),其中包含原始观察。然后,会创建一条场景边(Ee),将这个新的观察顶点与该观察中涉及的所有语义实体和关系连接起来 38。
  • 功能:该模型允许Agent同时对一般知识和特定经验进行推理。它可以检索一个特定的过去事件,并同时看到与之相关的所有一般知识,从而提供丰富、多方面的上下文 38。

3.4 综合与基础设施决策框架

本节最后将为从业者提供一个决策表。

表2:场景记忆存储技术的比较

特性

向量数据库

图数据库

混合模型 (如 AriGraph, TKG)

核心概念

语义空间中的几何邻近性

显式的、带类型的关系

两者兼备:基于关系结构的语义相似性

数据结构

高维向量

节点和边

节点/边上带有向量属性的图

主要查询类型

“查找N个最相似的项” (ANN)

“查找匹配X的路径/模式” (遍历)

“查找涉及实体Y的相似事件”

最佳适用场景

RAG、语义搜索、推荐系统

因果推理、欺诈检测、社交网络分析

需要语义回忆和结构化推理的复杂Agent

主要弱点

缺乏明确的关系上下文

纯相似性搜索可能较慢;设置复杂

复杂度和基础设施成本最高


第四部分:未来展望与未解挑战

本结论部分将超越当前的实现,讨论关键的研究前沿和Agent记忆的长期愿景,提供一个前瞻性的视角。

4.1 记忆巩固与主动遗忘

  • 无限记忆的问题:只增添记忆的Agent最终会因性能下降、成本高昂以及无法适应变化的环境而受损。人类的记忆并非完美的录音机;它会遗忘、修剪和泛化 40。
  • 记忆巩固:这是将特定的、短暂的场景记忆转化为持久的、泛化的语义知识的过程 4。对于AI Agent而言,这可能意味着一个离线过程,分析相似场景的集群以提取通用规则或事实,然后将其存储在独立的语义记忆中(如知识图)43。这是终身学习Agent的一个关键挑战 26。
  • 主动遗忘:Agent需要机制来有意地丢弃或降低不相关、过时或冗余记忆的优先级 40。
    • 策略:这可以基于新近度、访问频率、明确的用户反馈或“记忆重要性”得分 44。时序数据库和TTL策略是这种机制的简单形式 18。更高级的系统可能会使用“类睡眠”的巩固过程来离线审查和修剪记忆 40。

当前的研究重点是构建存储记忆的基础设施。下一个更艰巨的挑战是建立管理这些记忆的“认知”过程。这包括巩固、遗忘和泛化。没有这些,即使是最好的记忆架构最终也会变成一个计算上难以处理且充满无关数据噪音的档案库。

4.2 迈向认知上更合理的架构

  • 超越完美回忆:当前的AI记忆系统是“保真”的,旨在实现完美、忠实的记录 46。相比之下,人类记忆是重构性的,并且常常会出错。未来可能涉及更动态的AI记忆,能够重组过去场景的元素来想象未来情景或解决新问题 20。
  • 集成记忆系统:最终目标不是一堆独立的记忆模块(场景、语义、程序性),而是一个统一的系统,其中这些组件像大脑中那样无缝互动 42。双重记忆模型 42 和混合图 38 的工作是朝这个方向迈出的早期步伐。
  • 情感的角色:在人类中,情感在记忆编码和显著性方面起着关键作用(我们更容易记住情绪激动的事件)。未来的研究可能会探索如何在Agent中模拟情感的代理,以帮助它们确定哪些经验最重要,值得记住 48。

4.3 结论

本报告系统地剖析了AI Agent中场景记忆的理论基础、设计原则、技术实现与未来挑战。分析表明,发展稳健、持久且受认知科学启发的记忆系统,是推动LLM从强大的工具转变为真正自主、自适应和个性化Agent的关键催化剂 50。

当前的Agent在很大程度上是被动的,响应用户的提示或环境的刺激。丰富的场景记忆则允许Agent从被动反应转向主动行动乃至创造性活动。通过重放和重组过去的经验,Agent可以模拟潜在的未来,预测用户需求,并生成新颖的计划或想法。这些想法并非对即时查询的直接回应,而是根植于其累积的经验之中。这种由丰富的场景记忆所催生的主动行为,标志着从一个有用的工具到一个真正的助手或伙伴的转变。

这段旅程不仅涉及重大的技术和基础设施挑战,还伴随着深刻的安全和伦理考量,必须主动加以解决。最终,架构一个Agent的记忆,本质上就是在架构其智能的潜力。

参考资料

  1. Episodic memory - Wikipedia, https://en.wikipedia.org/wiki/Episodic_memory
  2. Episodic memory: from mind to brain - PubMed, https://pubmed.ncbi.nlm.nih.gov/11752477/
  3. What Is AI Agent Memory? | IBM, https://www.ibm.com/think/topics/ai-agent-memory
  4. Episodic memory in ai agents poses risks that should be studied and mitigated - arXiv, https://arxiv.org/html/2501.11739v1
  5. Episodic memory in AI agents poses risks that should be studied and mitigated | alphaXiv, https://www.alphaxiv.org/overview/2501.11739v2
  6. Understanding Episodic Memory in Artificial Intelligence | DigitalOcean, https://www.digitalocean.com/community/tutorials/episodic-memory-in-ai
  7. Episodic Memory in AI Agents - GeeksforGeeks, https://www.geeksforgeeks.org/artificial-intelligence/episodic-memory-in-ai-agents/
  8. What is a context window? - IBM, https://www.ibm.com/think/topics/context-window
  9. What is LLM's Context Window?:Understanding and Working with the Context Window | by Tahir | Medium, https://medium.com/@tahirbalarabe2/what-is-llms-context-window-understanding-and-working-with-the-context-window-641b6d4f811f
  10. What is a context window in AI? Understanding its importance in LLMs - Nebius, https://nebius.com/blog/posts/context-window-in-ai
  11. What is a context window for Large Language Models? - McKinsey, https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-is-a-context-window
  12. Episodic memory in ai agents poses risks that should be studied and mitigated - arXiv, https://arxiv.org/html/2501.11739v2
  13. Position: Episodic Memory is the Missing Piece for Long-Term LLM Agents - ResearchGate, https://www.researchgate.net/publication/388920191_Position_Episodic_Memory_is_the_Missing_Piece_for_Long-Term_LLM_Agents
  14. Memory FAQ - OpenAI Help Center, https://help.openai.com/en/articles/8590148-memory-faq
  15. OpenAI Memory Sets the Vision — But How Can Developers Leverage It via API? - Medium, https://medium.com/@memobase.tools/openai-memory-sets-the-vision-but-how-can-developers-leverage-it-via-api-dc1e696016ae
  16. How to build an OpenAI Agent with persistent memory - GibsonAI, https://gibsonai.com/blog/how-to-build-an-openai-agent-with-persistent-memory
  17. Building ChatGPT-Like Memory: OpenAI's New Feature and How to ..., https://medium.com/agentman/building-chatgpt-like-memory-openais-new-feature-and-how-to-create-your-own-3e8e3594b670
  18. Vertex AI Agent Engine Memory Bank overview | Generative AI on ..., https://docs.cloud.google.com/vertex-ai/generative-ai/docs/agent-engine/memory-bank/overview
  19. Google Gemini Long-Term Memory: What You Need to Know - Vision Computer Solutions, https://www.vcsolutions.com/blog/understanding-google-gemini-long-term-memory-features/
  20. On the risks and benefits of episodic memory in AI agents - Computer Science at Columbia University, https://www.cs.columbia.edu/~dechant/safeaiworkshop2023.pdf
  21. Modeling Agent Memory - Graph Database & Analytics - Neo4j, https://neo4j.com/blog/developer/modeling-agent-memory/
  22. Google Gemini's Long-term Memory Vulnerable to a Kind of Phishing Attack - InfoQ, https://www.infoq.com/news/2025/02/gemini-long-term-memory-attack/
  23. (PDF) Sample Efficient Reinforcement Learning Method via High Efficient Episodic Memory - ResearchGate, https://www.researchgate.net/publication/342964267_Sample_Efficient_Reinforcement_Learning_Method_via_High_Efficient_Episodic_Memory
  24. Generalizable Episodic Memory for Deep Reinforcement Learning, https://profiles.wustl.edu/en/publications/generalizable-episodic-memory-for-deep-reinforcement-learning
  25. Reinforcement learning and episodic memory in humans and ..., https://pmc.ncbi.nlm.nih.gov/articles/PMC5953519/
  26. AI Agent of the Week: Papers You Should Know About - LLM Watch, https://www.llmwatch.com/p/ai-agent-of-the-week-papers-you-should
  27. How Memory Management Impacts LLM Agents: An Empirical Study of Experience-Following Behavior - arXiv, https://arxiv.org/html/2505.16067v2
  28. Acon: Optimizing Context Compression for Long-horizon LLM Agents - arXiv, https://arxiv.org/html/2510.00615v1
  29. Vector database vs graph database: Key Differences - PuppyGraph, https://www.puppygraph.com/blog/vector-database-vs-graph-database
  30. Vector Database Vs. Graph Database: 6 Key Differences - Airbyte, https://airbyte.com/data-engineering-resources/vector-database-vs-graph-database
  31. Vector database vs. graph database: Knowledge Graph impact - WRITER, https://writer.com/engineering/vector-database-vs-graph-database/
  32. Everyone's trying vectors and graphs for AI memory. We went back to SQL. : r/AI_Agents - Reddit, https://www.reddit.com/r/AI_Agents/comments/1nkx0bz/everyones_trying_vectors_and_graphs_for_ai_memory/
  33. My thoughts on choosing a graph databases vs vector databases : r/Rag - Reddit, https://www.reddit.com/r/Rag/comments/1ka88og/my_thoughts_on_choosing_a_graph_databases_vs/
  34. airbyte.com, https://airbyte.com/data-engineering-resources/vector-database-vs-graph-database#:~:text=Vector%20databases%20excel%20at%20similarity,analysis%20for%20superior%20AI%20applications.
  35. Evolution of Knowledge Graphs and AI Agents - Artificial Intelligence in Plain English, https://ai.plainenglish.io/evolution-of-knowledge-graphs-and-ai-agents-9fd5cf8188bf
  36. Agents That Remember, Temporal Knowledge Graphs as Long-Term Memory - Medium, https://medium.com/@bijit211987/agents-that-remember-temporal-knowledge-graphs-as-long-term-memory-2405377f4d51
  37. Building AI Agents with Knowledge Graph Memory: A Comprehensive Guide to Graphiti | by Saeed Hajebi | Medium, https://medium.com/@saeedhajebi/building-ai-agents-with-knowledge-graph-memory-a-comprehensive-guide-to-graphiti-3b77e6084dec
  38. AriGraph: Learning Knowledge Graph World Models with ... - IJCAI, https://www.ijcai.org/proceedings/2025/0002.pdf
  39. [2407.04363] AriGraph: Learning Knowledge Graph World Models with Episodic Memory for LLM Agents - arXiv, https://arxiv.org/abs/2407.04363
  40. Forgetting in AI Agent Memory Systems | by Volodymyr Pavlyshyn, https://ai.plainenglish.io/forgetting-in-ai-agent-memory-systems-7049181798c4
  41. Forgetting” in Machine Learning and Beyond: A Survey - arXiv, https://arxiv.org/html/2405.20620v1
  42. Memory Formation, Consolidation, and Forgetting in Learning Agents - IFAAMAS, https://www.ifaamas.org/Proceedings/aamas2012/papers/2F_1.pdf
  43. Memory formation, consolidation, and forgetting in learning agents - InK@SMU.edu.sg, https://ink.library.smu.edu.sg/cgi/viewcontent.cgi?article=7279&context=sis_research
  44. What Is AI Agent Memory? Complete Guide - Northwest AI Consulting, https://nwai.co/what-is-ai-agent-memory-complete-guide/
  45. How Does Episodic Memory Affect AI and How Can It Be Mitigated? - ResearchGate, https://www.researchgate.net/publication/388272261_How_Does_Episodic_Memory_Affect_AI_and_How_Can_It_Be_Mitigated
  46. Elements of episodic memory: insights from artificial agents - PMC - NIH, https://pmc.ncbi.nlm.nih.gov/articles/PMC11449156/
  47. Reinforcement Learning and Episodic Memory in Humans and Animals: An Integrative Framework - PubMed, https://pubmed.ncbi.nlm.nih.gov/27618944/
  48. A Comparative Analysis of Episodic Memory between Humans and AI Agents with Context Correlation - UPV, https://personales.upv.es/thinkmind/dl/conferences/braininfo/braininfo_2024/braininfo_2024_1_40_90043.pdf
  49. The role of episodic memory and emotion in a cognitive robot - ResearchGate, https://www.researchgate.net/publication/4177561_The_role_of_episodic_memory_and_emotion_in_a_cognitive_robot
  50. Position: Episodic Memory is the Missing Piece for Long-Term LLM Agents - arXiv, https://arxiv.org/html/2502.06975v1
  51. Position: Episodic Memory is the Missing Piece for Long-Term LLM Agents - arXiv, https://arxiv.org/pdf/2502.06975?

延伸思考

这次分享的内容就到这里了,或许以下几个问题,能够启发你更多的思考,欢迎留言,说说你的想法~

  1. 文章强调了记忆系统的“可解释性与用户控制”以及“隔离性与不可变性”原则,以防范潜在风险。在实际的AI Agent产品设计中,你认为如何在确保Agent自主学习能力的同时,最大化地保障用户对记忆数据的隐私和控制权?
  2. “主动遗忘”被认为是未来AI Agent记忆管理的关键挑战。除了基于新近度或访问频率的简单策略,你认为还有哪些更高级的机制或算法可以帮助Agent智能地“遗忘”不相关或过时的信息,以避免“无限记忆”带来的性能和成本问题?
  3. 混合知识图架构(如时序知识图TKG、AriGraph)被视为实现更合理认知架构的未来方向。对于资源有限的中小型团队或个人开发者而言,在构建具备场景记忆的Agent时,如何在复杂度和基础设施成本之间找到一个平衡点,是否存在更轻量级但有效的混合记忆实现方案?

Notice:Human's prompt, Datasets by Gemini-2.5 PRO-DeepResearch

#Agent记忆 #人机交互

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-11-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 王知鱼 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 第一部分:界定AI记忆的范畴
    • 1.1 认知蓝图:恩德尔·图尔文的场景记忆理论
      • 关键概念详述
    • 1.2 从人类认知到人工智能:定义AI Agent的场景记忆
    • 1.3 记忆机制的比较分析
      • 1.3.1 上下文窗口:Agent的易失性工作记忆
      • 1.3.2 案例研究:OpenAI的“记忆”实现
      • 1.3.3 案例研究:谷歌的Vertex AI Memory Bank
    • 1.4 综合与比较
  • 第二部分:设计原则与工作流优化
    • 2.1 场景记忆系统的基础设计原则
      • 原则1:可解释性与用户控制
      • 原则2:隔离性与不可变性
      • 原则3:相关性与显著性过滤
      • 原则4:安全性与隐私
    • 2.2 优化Agent循环:(情境, 行动, 结果)
      • 2.2.1 丰富情境:从提示到世界观
      • 2.2.2 指导行动:从经验中学习
      • 2.2.3 评估与存储结果:闭合学习循环
      • 2.2.4 高级技术:Agent上下文优化 (Acon)
  • 第三部分:心智的基础设施:存储与检索架构
    • 3.1 经验的数据建模
    • 3.2 核心辩论:向量数据库 vs. 图数据库
      • 3.2.1 用于语义相似性的向量数据库
      • 3.2.2 用于关系推理的图数据库
    • 3.3 新兴的综合:混合知识图架构
      • 3.3.1 混合化的理由
      • 3.3.2 案例研究:时序知识图 (TKG)
      • 3.3.3 案例研究:AriGraph框架
    • 3.4 综合与基础设施决策框架
  • 第四部分:未来展望与未解挑战
    • 4.1 记忆巩固与主动遗忘
    • 4.2 迈向认知上更合理的架构
    • 4.3 结论
  • 参考资料
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档