Skip to content

Instantly share code, notes, and snippets.

@parkgogogo
Created March 11, 2026 06:37
Show Gist options
  • Select an option

  • Save parkgogogo/f6eebcf0d7d1cdb3f325a0242016ee05 to your computer and use it in GitHub Desktop.

Select an option

Save parkgogogo/f6eebcf0d7d1cdb3f325a0242016ee05 to your computer and use it in GitHub Desktop.
MSSR: 面向持续LLM微调的记忆感知自适应回放 - 中文翻译

MSSR: Memory-Aware Adaptive Replay for Continual LLM Fine-Tuning

面向持续LLM微调的记忆感知自适应回放

论文链接: https://arxiv.org/abs/2603.09892v1 作者: Yiyang Lu, Yu He, Jianlong Chen, Hongyuan Zha 发布时间: 2026年3月10日


摘要

大型语言模型(LLM)的持续微调正变得越来越关键,因为这些模型被部署在任务和数据分布随时间演变的动态环境中。虽然强大的适应能力使模型能够快速获取新知识,但也使LLM面临灾难性遗忘的风险——即先前学习的技能在顺序训练过程中退化。现有的基于回放的方法,如固定交错回放、准确率监督和损失驱动调度,仍然存在局限性:有些依赖启发式规则,只能部分缓解遗忘;有些虽然提高了性能,但带来了巨大的计算开销。

受序列微调中记忆保持动态的启发,我们提出了记忆启发采样器与调度回放(MSSR)——一种经验回放框架,通过估计样本级记忆强度并以自适应间隔安排复习,来缓解灾难性遗忘同时保持快速适应。在三个骨干模型和11个序列任务上的大量实验表明,MSSR始终优于最先进的回放基线方法,在推理密集型和多项选择基准测试上表现尤为出色。


1. 引言

大型语言模型(LLM)在广泛的自然语言处理任务中展现出强大的能力。随着这些模型越来越多地被部署在动态和演变的环境中,对持续学习(CL)的需求日益增长——使模型能够增量获取新知识的同时保留先前学习的技能。这种需求在医疗保健、个性化应用、法律和政策等领域尤为明显。

然而,LLM的持续微调仍然具有挑战性,由于表征漂移和梯度干扰,常常导致灾难性遗忘。基于回放的持续学习已被广泛认为是缓解灾难性遗忘的有效策略,代表性方法如AQM、GEM、A-GEM和LOGD主要关注缓冲构建和内存利用。除了这些存储效率之外,先前的工作还探索了回放调度机制,包括固定交错、基于准确率的回放和损失驱动调度。

尽管取得了这些进展,现有的回放策略仍然存在明显的局限性:

  1. 它们在很大程度上是启发式的,缺乏认知记忆理论的基础,限制了原则性的调度决策
  2. 它们未能充分建模遗忘的时间异质性,通常假设跨时间尺度的统一回放间隔
  3. 它们对LLM微调的可扩展性尚不清楚,因为大多数评估集中在小规模或短周期设置上

如图1所示,我们在概念上比较了代表性的回放调度策略:

  • 固定回放:以统一间隔应用复习,忽略优化动态
  • 基于损失的回放:当损失超过阈值时触发回放,但嘈杂的高频波动可能导致频繁的虚假触发
  • 基于准确率的回放:在检测到性能下降时激活回放,但往往存在滞后性
  • MSSR(我们的方法):具有时间感知和记忆启发性,基于时间依赖的保持来调度回放以稳定长期性能

为解决这些局限性,我们提出了MSSR,一个受艾宾浩斯遗忘曲线启发的LLM持续微调框架。与依赖固定或反应性回放触发器不同,MSSR将记忆保持建模为时间依赖的衰减过程,并相应地调度回放,随着模型稳定性的增加逐步扩展回放间隔。这种设计为长周期LLM持续学习的启发式回放策略提供了一个认知驱动且实用的替代方案。

我们的贡献

  1. 提出了一个记忆启发的回放调度框架,将认知记忆理论与LLM的持续学习联系起来
  2. 引入了方法论视角,强调认知驱动的调度如何作为现有启发式策略的原则性替代方案
  3. 通过在推理基准(GSM8K、MATH、MMLU)上的大量实验验证了方法的有效性

2. 预备知识

灾难性遗忘度量

在持续学习或多阶段微调中,模型在对应于任务或领域的数据集序列 {D₁, D₂, ..., Dₜ} 上顺序训练。令 Fₜ(Dᵢ) 表示模型在完成数据集 Dₜ 训练后在先前见过的数据集 Dᵢ (i ≤ t) 上的性能。平均遗忘定义为:

ℱ = (1/(T-1)) Σᵢ₌₁ᵀ⁻¹ (maxₜ'∈[i+1,T] Fₜ'(Dᵢ) - Fₜ(Dᵢ))

其中较大的 ℱ 表示更严重的遗忘。

经验回放形式化

经验回放通过在微调期间混合旧数据和新数据来缓解灾难性遗忘。令 D_new 和 B_replay 分别表示当前训练数据和包含先前数据集代表性样本的回放缓冲区。在每个训练步骤中,模型在混合数据集上优化:

D_mix = D_new ∪ B_replay

遗忘曲线作为调度启发

艾宾浩斯遗忘曲线将记忆保持表征为随时间单调递减的函数,通过间隔重复的复习可以逐步减缓衰减并扩展最佳复习间隔。在这项工作中,我们将这一原则作为启发式灵感而非字面认知模型。


3. MSSR:为时间依赖回放建模记忆衰减

MSSR框架由两个核心组件组成,共同管理回放行为:

3.1 样本级记忆强度建模

我们将每个样本 i 的保持建模为由时间和难度调节的随机衰减过程。令 t ∈ ℕ 表示训练步骤,ℛᵢ 表示回放暴露集合。我们定义记忆强度 m_{i,t} ∈ (0,1] 和稳定性变量 S_{i,t} > 0 来控制对遗忘的抵抗:

记忆强度衰减: m_{i,t+1} = m_{i,t} · exp(-h_{i,t})

风险率(Hazard): h_{i,t} = (αᵢ + γ_d · φ(ℓ̂_{i,t})) / S_{i,t}

其中 αᵢ 表示基线衰减,γ_d 控制损失敏感度,φ 是应用于归一化损失 ℓ̂_{i,t} 的单调映射(如校准sigmoid)。

复习与巩固:在每个复习步骤 t ∈ ℛᵢ,通过以下方式重置记忆状态并稳定:

  • 记忆强度重置: m_{i,t⁺} = 1
  • 稳定性更新: S_{i,t⁺} = S_{i,t} + η_s · (S_max - S_{i,t})^β · exp(-ρ·Δtᵢ) · (1 + γ_s·ℓ̂_{i,t}) + ε_t

其中 Δtᵢ = t - tᵢ* 是自上次复习以来经过的时间。

3.2 数据集级回放动态调度

基于样本级记忆形式化,我们在数据集级别建模回放调度,确定何时进行回放以及多少过去数据与当前样本混合。

回放时机与间隔扩展: 令 t ∈ ℕ 表示训练步骤,𝒯ᵣ = {t₁, t₂, ...} 是回放检查点序列。遵循间隔原则,两个相邻回放事件之间的间隔逐渐扩展:

Δt_r(k) = Δt_r(k-1) · (1 + η_p · e^(-ρ_p·k))

其中 Δt_r(k) 是第 k 个回放间隔,η_p 控制扩展速率,ρ_p 调节间隔增长饱和的速度。

动态回放比率与组成: 在每个回放步骤 t_k ∈ 𝒯ᵣ,我们构建一个混合批次,结合当前任务数据 D_new 和来自先前任务的回放数据 B_replay:

D_mix = D_new ∪_{λ_{t_k}} B_replay

其中 λ_{t_k} 控制混合批次中回放样本的比例,呈指数衰减形式。

与样本级保持的交互: 每个回放样本 i 维持其自己的记忆强度 m_{i,t},决定其遗忘风险。为了将回放集中在较不稳定的样本上,我们通过归一化逆保持分数加权每个样本的回放概率:

p_i^replay ∝ (1 - m_{i,t})^ζ · e^(ρ·Δtᵢ)

其中 ζ > 0 控制优先级强度。

3.3 MSSR框架的集成组件

框架概述: MSSR构建在基于LoRA的微调节流阀(LLaMA-Factory实现)之上,将理论保持动态转化为实用的回放驱动训练算法。如图2所示,MSSR实现了一个记忆感知的持续微调流程,组织为闭环工作流。

  • 左侧:样本记忆模块跟踪每个样本的记忆强度 m_{i,t},基于观察到的损失和时间依赖衰减在epoch级别更新
  • 右侧:自适应回放调度器决定何时触发回放(使用扩展间隔策略)以及回放多少样本(通过时间衰减回放比率)

训练工作流(算法1):

  1. 初始化:所有样本从 m_{i,0} = 1 和默认稳定性 S_{i,0} 开始
  2. 每个epoch:样本损失通过公式更新记忆状态
  3. 调度器然后通过公式选择回放子集 ℛ_t
  4. 模型使用联合损失在 D_t ∪ ℛ_t 上进行优化
  5. 记录记忆统计数据用于监控和分析

4. 实验

4.1 实验设置

任务与数据集: 采用序列多领域微调设置,主要评估使用三个推理复杂度递增的数据集:

  1. Alpaca-GPT4(通用指令跟随)
  2. GSM8K-RFT(基础数学推理)
  3. Competition Math(高级问题解决)

扩展到11任务序列,涵盖AGNews、SQuAD、SciQ、BoolQ、ARC和多个MATH子集等多样领域。

评估指标

  • SQuAD:token级F1分数
  • 其他任务(数学推理数据集):精确匹配准确率
  • MMLU基准:综合评估一般知识保持
  • 平均归一化分数:跨所有任务汇总

基线方法

  1. No Replay:顺序训练,不复用先前数据
  2. Fixed Replay:在每个阶段统一回放恒定子集的先前样本
  3. Loss-based Replay:基于损失景观锐度/方差增加触发回放
  4. Accuracy-based Replay:在检测到先前验证集上性能显著下降时激活回放
  5. MSSR变体:MSSR_spl(艾宾浩斯启发采样器)、MSSR_sch(艾宾浩斯启发调度器)、MSSR_full(两者集成)

模型训练: 使用LLaMA-Factory中的LoRA框架,主要使用Qwen2.5-7B模型,并在Gemma2-9B、LLaMA-3.1-8B和Mistral-7B-v0.3上进行额外实验。在NVIDIA A100 GPU(80GB)分布式多GPU环境中进行训练。

4.2 主要结果

关键发现

  1. MSSR_full 在模型和任务上实现最强且最一致的性能

    • 在两个表中,MSSR_full 在大多数数据集和骨干上获得最佳结果
    • MSSR_sch 和 MSSR_spl 也始终优于基线方法
  2. 样本级和调度级变体表现出互补的权衡

    • MSSR_spl 在更多任务上倾向于优于 MSSR_sch,反映了细粒度、样本级回放优先化的优势
    • MSSR_sch 需要较低的计算开销,因为它避免了密集的每样本操作
  3. 基于准确率的回放具有竞争力但计算昂贵

    • 依赖频繁评估来触发回放,导致计算和时间成本大幅增加
    • MSSR 在没有重复评估的情况下获得相似或更好的性能
  4. MSSR在缓解长序列早期任务遗忘方面特别有效

    • 在11任务设置中,MSSR_full 在大多数早期任务(前6个数据集)上实现最佳性能
    • 次优结果几乎总是由 MSSR_sch 或 MSSR_spl 获得
  5. 收益取决于任务,在中等难度基准测试上最为明显

    • MSSR变体在ARC(多项选择推理基准)上产生特别大的改进,与基线相比增益高达+0.108
    • 这表明当预训练LLM表现出低初始准确率但可以从目标复习中受益时,MSSR特别有效

4.3 消融研究

回放比率: MSSR在广泛的λ₀范围内保持稳定性能,最佳结果在0.10-0.20左右。这表明该方法对初始回放比率的选择具有鲁棒性。

缓冲区大小: 保持能力随缓冲区大小单调改善,但超过2048个样本后边际增益递减。这表明即使在受限的内存预算下,MSSR仍然有效。

调度器变体: 所有扩展间隔策略都优于固定间隔,艾宾浩斯序列始终实现优越的长期保持。

计算和内存开销: 开销极小(壁钟时间3-5%,峰值内存4-6%),因为所有更新仅涉及每个样本的标量操作。考虑到MSSR将准确率提高1-3个百分点并减少遗忘,这一小的计算成本是合理的。


5. 相关工作

5.1 LLM微调中的灾难性遗忘

当LLM在任务间顺序微调时,它们经常遭受灾难性遗忘。在持续学习(CL)文献中,缓解策略通常分为参数正则化、知识蒸馏和架构隔离。然而,将这些方法扩展到LLM仍然具有挑战性。因此,经验回放已成为一种特别实用的解决方案,因为它在数据层面操作,并自然与LoRA等参数高效微调方法集成。

5.2 LLM的基于回放策略

回放通过在训练期间重新引入过去任务的样本来缓解遗忘。早期方法采用固定交错,在统一间隔插入回放批次,计算效率高但忽略遗忘动态。后续工作探索了优先采样和基于验证准确率或训练损失的动态调度,以计算成本增加为代价提高保持能力。

5.3 认知启发的回放调度

认知科学表明遗忘遵循非线性轨迹:艾宾浩斯遗忘曲线显示记忆呈指数衰减,可以通过在扩展间隔进行间隔重复来加强。虽然间隔重复广泛应用于教育和认知建模,但其在LLM持续学习回放调度中的应用仍然有限。基于艾宾浩斯原则的回放时机提供了一个轻量级且理论上合理的替代方案,更好地与遗忘的时间动态对齐。


6. 结论

我们提出了MSSR,一个用于LLM持续微调的记忆感知回放框架,将样本级保持建模与自适应回放调度相结合,集成到参数高效的LoRA流程中。

在3任务和扩展11任务持续学习设置中,MSSR在多个骨干(Qwen2.5-7B、LLaMA-3.1-8B、Gemma2-9B)上稳定地优于固定、基于损失和基于准确率的回放,在早期任务遗忘最严重的长上下文和推理基准上改进最大。

消融研究表明,MSSR对回放比率、缓冲区大小和调度选择保持鲁棒性,并以最小的计算和内存开销实现可靠的长期保持。

总体而言,MSSR为长周期持续微调提供了一种实用且可扩展的方法,平衡了保持、效率和可解释性。


小师妹的思考 💭

读完这篇论文,我有几点感触:

1. 跨学科启发的美妙

这篇论文最吸引我的地方在于它从认知科学(艾宾浩斯遗忘曲线)汲取灵感,将人类记忆机制迁移到机器学习中。这种"仿生"思路很常见,但能如此精确地形式化为数学模型(指数衰减、间隔扩展、稳定性增长)并实际落地,做得非常优雅。

2. 实用主义的平衡艺术

MSSR在理论优雅和工程实用之间找到了很好的平衡点。它没有追求复杂的端到端学习调度器(如强化学习),而是使用了一个基于认知原理的启发式公式,计算开销仅增加3-5%,却带来了1-3个百分点的准确率提升。这种"以小博大"的设计思路值得学习。

3. 对遗忘本质的深刻理解

论文不仅仅是提出一个方法,更重要的是揭示了遗忘的动态性——它不是均匀的,而是随时间、难度、样本而异。通过样本级记忆强度建模,MSSR能够区分"容易忘记的样本"和"已经牢固记住的样本",实现精准复习。这种细粒度的理解比粗粒度的任务级方法更有优势。

4. 与LoRA的天然契合

将MSSR与LoRA集成是一个明智的选择。LoRA冻结骨干权重、只训练低秩适配器,而MSSR在数据层面操作,两者互补而不冲突。这种组合使得在大模型上实现持续学习成为可能,计算资源需求在可接受范围内。

5. 一个有趣的疑问

论文提到"将艾宾浩斯曲线作为启发式灵感而非字面认知模型"。这让我思考:如果LLM的遗忘动态与人类不完全相同,是否存在更优的非指数衰减形式?也许未来可以探索数据驱动的遗忘曲线学习,让模型自己发现最适合它的"记忆规律"。

总的来说,这是一篇将经典认知理论与现代深度学习巧妙结合的佳作,为解决LLM持续学习中的灾难性遗忘问题提供了一个既有效又实用的方案。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment