欢迎回到大模型挑战专栏!在上一篇文章中,我们深度分析了大语言模型(LLM)的“阿喀琉斯之踵”——**灾难性遗忘(Catastrophic Forgetting)**问题,探讨了为什么在静态部署状态下,模型一旦接触非独立同分布(Non-IID)的新数据,其内部精心调优的权重就会被野蛮覆盖,导致原有的核心能力土崩瓦解。
然而,真正的通用人工智能(AGI)绝不是一个被冻结在时间胶囊里的静态程序。它必须像人类大脑一样,在时间的洪流中不断吸收新知、自我纠错、自主进化,同时不丢失过往的智慧。今天,我们以大模型遗忘问题为基础,进行进一步拓展,初步探索大语言模型的持续学习(Continual Learning)与自主进化范式,这一篇主要以谷歌于25年发表的Nested Learning: The Illusion of Deep Learning Architectures 论文为核心,探索AI模型持续学习和进化的可能性。
大模型的持续学习与上一篇的防止遗忘主题紧密相关,在更新知识、学习新技能的同时,也要防止已有技能和知识的遗忘,这并非敲击几行代码进行后训练就能实现,而是一个贯穿模型整个生命周期的复杂系统工程。目前,持续学习的相关研究可以粗略划分为三个维度:
为了在更新参数学习新技能的同时死死锚定旧知识,研究者们探索了三套具有潜力的技术路径:
传统的持续学习喜欢把旧数据存起来,混在新数据里重新训练。但在千亿参数面前,随机抽样的效率极其低下。SuRe 算法引入了信息论(SuRe: Surprise-Driven Prioritised Replay for Continual LLM Learning),通过计算样本的 似然性(Negative Log-Likelihood, NLL) 来筛选数据:
这里<,NLL 值越高,意味着当前参数对该样本的预测越不准,即“惊喜度(Surprise)”越高,信息密度越大。SuRe部署了双重 LoRA 适配器:Fast LoRA 极速狂飙,拟合新数据和高频特征;Slow LoRA 稳如泰山,冻结不参与直接梯度下降。训练每步结束时,通过指数移动平均(EMA)将 Fast 的权重缓慢融合进 Slow 中,完美剥离跨任务的稳定低频特征。
该方法发表于ICLR2026,论文标题为 “Rethinking Continual Learning with Progressive Neural Collapse”。NC利用了深度网络收敛时的 “神经坍塌”(Neural Collapse, NC) 现象:即当模型训练到极致时,同类特征会自动聚集,并在高维空间中自发形成一个完美的单纯形等角紧框架(Simplex ETF)。 ProNC 通过奇异值分解(SVD)精确提取出数学上最近的最优 ETF 锚点:
当遇到新任务时,它绝对不破坏原有的结构,而是向高维空间注入正交的新顶点,并联合优化三大损失函数锁死特征漂移:
第三类方法以当前LLM的MoE架构为出发点,由腾讯AI lab提出(CL-MoE: Enhancing Multimodal Large Language Model with Dual Momentum Mixture-of-Experts for Continual Visual Question Answering)。该系统为序列中的每个新任务分配一个“专属 LoRA 专家”,学完即刻物理冻结,彻底杜绝参数覆盖。同时设置一个“共享 LoRA 专家”贯穿全局。为了防止专属任务噪音污染共享专家,系统在共享内部植入了一个任务感知判别器。通过判别器与共享专家的 Minimax 对抗博弈,强制过滤特定任务的噪声,确保流入的只有纯粹的跨任务通用知识。
如果说上面三种方法是在传统深度学习的框架内“打补丁”,那么 Google Research 团队于 2025 年底发布的重磅论文《Nested Learning: The Illusion of Deep Learning Architectures》及其衍生的 HOPE 架构,则是对当前 AI 底层哲学的一次彻头彻尾的颠覆,甚至有研究者称其为“Attention Is All You Need — Part II”。这里我们基于该论文及相关资料对该方法进行介绍。
传统观念将神经网络的结构(前向传播的“脑子”,如 Transformer)和优化算法(反向传播的“老师”,如 SGD、Adam)视为两个截然分离的实体。Nested Learning (NL) 则指出:这完全是一种认知幻象。 在 NL 的宏观视域下,模型本身就是一个由多个微型优化问题相互嵌套、并行执行的集合。我们所熟知的全局优化器(如 Adam),本质上只是一个试图通过梯度下降来压缩上下文信息的“关联记忆模块(Associative Memory Module)”。 基于这一洞察,网络不再受制于单一的全局更新步调。整个庞大的模型被解构,每一层 都被赋予了专属的内部上下文流(Context Flow)与优化更新规则 :
在这里, 代表该神经网络层的独立更新频率(Update Frequency Rate), 是该层的历史状态。这意味着,网络中同时存在无数个以不同频率跳动的“学习引擎”。
现代 LLM 往往机械地将 Attention 机制视为短期工作记忆,将前馈网络(FFN)视为长期静态记忆。NL 通过 CMS 彻底打碎了这种二元对立,将整个网络重塑为一个平滑过渡的“记忆光谱”。
为了将理论落地,研究团队在 Titans 长序列记忆架构的基础上,推出了 HOPE (Hierarchically Optimized Persistent Entity) 模型。HOPE 的核心杀手锏是其自我指涉的动态修正能力(Self-Modifying)。 传统的机器学习是“一阶学习”(First-order learning),即模型用固定的、硬编码的梯度下降规则更新参数。但在 HOPE 的“无限循环(Infinite Loop)”设计中,更新算法本身也是模型可被学习和优化的参数集合。 具体而言,模型实现了高阶上下文学习。假设模型中的 Level 1 模块负责学习具体的事实,那么更高阶的 Level 2 模块则会实时监控 Level 1 模块的误差曲面(Loss Landscape)收敛情况。如果 Level 2 发现学习效率低下,它会直接通过内部隐状态,动态调整 Level 1 的注意力投影矩阵(Query, Key, Value):
这种“心智中的心智(Mind inside a mind)”结构,让 AI 不仅在死记硬背知识,更在 “自主学习如何更好地去学习”。
在实际的持续指令微调工程落地中,数据流中不可避免地包含大量用于对齐的 Padding(填充)字符。HOPE 在底层架构中深度整合了二值掩码(Binary Masking)机制。在遇到无意义的 Padding 时,记忆单元的更新通道会被绝对物理锁死:
这确保了模型不会因为噪音而污染其敏锐的“极速突触”,实现了绝对的纯净聚焦学习(Focused Learning)。
当模型真正开始自我进化(如 Meta 的 SR-LM 让大模型兼任裁判自我打分生成 DPO 偏好对),新的安全挑战也会随之出现。
传统的持续微调方法极易触发 对齐漂移 (Alignment Drift)。随着新知识的覆盖,模型原有的知识和安全错误可能会被遗忘,预训练语料中被压抑的高风险问题会被重新唤醒。
进一步地,在一个具备连续学习能力的动态模型中,如果没有进行完备的数据过滤,那么外部“数据投毒”的威胁会被指数级放大。攻击者只需在数据流中混入少量恶意文档 (数据投毒),基于惊喜度的学习算法就会将其视作“高价值信息”优先吸收,将后门漏洞深深植入模型底层。