【Incremental Learning】Exploring Example Influence in Continual Learning in NIPS 2022 个人理解

文章介绍了在连续学习(ContinualLearning)场景下,如何通过影响函数(InfluenceFunction)评估样本对模型稳定性和可塑性的影响,进而优化基于回放的增量学习策略。作者提出了MetaSP方法来近似和计算样本影响,用于模型更新和样例选择,旨在平衡新任务学习和旧任务记忆。

一、简介

题目: Exploring Example Influence in Continual Learning
会议: NIPS 2022
任务: 数据/任务依次到来,新的数据/任务到来后旧的就不再可获取,要求模型在学习新数据/任务的同时不要忘记旧数据/任务。
Idea: 作者沿用了基于回放(Replay/Rehearsal)的增量学习(Incremental Learning, IL)策略,引入影响函数(Influence Function, IF)评估样本对模型稳定性(记忆旧知识的能力)和可塑性(学习新知识的能力)的影响,并据此更新模型和确定样本的去留(留下的样本会在更新模型时再次使用,即回放)。
Note: IL = Continual Learning。
影响
如图,作者用IF衡量样本具有正面还是负面作用,并据IF更新模型和选取样本。

二、详情

1. 样本对稳定性和可塑性的影响

假设当前为第 t t t个任务,第 t t t个任务时模型在第 k k k个任务上的稳定性( S t k S^k_t Stk)和对第 t t t个任务的可塑性( P t P_t Pt),定义如下:

其中, k < t k<t k<t D k tst \mathcal{D}_k^{\text{tst}} Dktst表示第 k k k个任务的测试集, D t trn \mathcal{D}_t^{\text{trn}} Dttrn D t tst \mathcal{D}_t^{\text{tst}} Dttst表示第 t t t个任务的训练集和测试集, θ t − 1 \pmb\theta_{t-1} θ

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Fulin_Gao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值