论文 #4: FIRE - 阅读报告

基本信息

  • 标题: FIRE: Frobenius-Isometry Reinitialization for Balancing the Stability–Plasticity Tradeoff
  • 作者: Isaac Han, Sangyeon Park, Seungwon Oh, Donghu Kim, Hojoon Lee, KyungJoong Kim
  • 发表日期: 2026 年 1 月 26 日
  • 主要领域: transfer learning, meta learning, and lifelong learning
  • Submission Number: 24624

关键词

stability-plasticity tradeoff, continual learning

TL;DR

我们提出了 FIRE,一种通过约束优化平衡稳定性和可塑性的原则性重新初始化方法

摘要

在非平稳数据上训练的深度神经网络必须平衡稳定性(即保留先前知识)和可塑性(即适应新任务)。

标准重新初始化方法(将权重重新初始化为其原始值)被广泛使用但难以调整:保守的重新初始化无法恢复可塑性,而激进的重新初始化会擦除有用知识。

我们提出了 FIRE,一种明确平衡稳定性 - 可塑性权衡的原则性重新初始化方法。FIRE 通过平方 Frobenius 误差(SFE)量化稳定性,测量与过去权重的接近程度;通过偏离等距(DfI)量化可塑性,反映权重各向同性。

重新初始化点通过求解约束优化问题获得,在 DfI 为零的约束下最小化 SFE,这可以通过 Newton-Schulz 迭代有效近似。

FIRE 在持续视觉学习(ResNet-18 的 CIFAR-10)、语言建模(GPT-0.1B 的 OpenWebText)和强化学习(SAC 的 HumanoidBench 和 DQN 的 Atari 游戏)上进行了评估。在所有领域中,FIRE 始终优于没有干预的天真训练和标准重新初始化方法,展示了有效平衡稳定性 - 可塑性权衡的能力。

核心贡献

  1. FIRE 方法: 原则性的重新初始化方法,明确平衡稳定性和可塑性
  2. 理论框架: 使用 SFE(稳定性)和 DfI(可塑性)量化权衡
  3. 高效算法: 通过 Newton-Schulz 迭代有效近似约束优化
  4. 跨领域验证: 在视觉、语言、RL 三个领域验证有效性
  5. SOTA 性能: 在所有测试领域优于基线方法

研究意义

  • 解决了持续学习中的核心挑战:稳定性 - 可塑性权衡
  • 提供了理论原则性的方法,而非启发式调整
  • 跨领域适用性强,具有广泛的实用价值
  • 为持续学习系统设计提供了新方向

阅读笔记

  • 核心问题是持续学习中如何既保留旧知识又学习新知识
  • FIRE 通过数学优化框架形式化这个问题
  • Newton-Schulz 迭代是高效的数值方法
  • 在三个不同领域的验证显示了方法的通用性
  • 对于需要持续更新的生产系统特别有价值

报告生成时间: 2026-04-13 OpenReview 链接: https://openreview.net/forum?id=CfZLxT3zIZ