Task-Free Continual Learning
来自CVPR2019,比利时鲁汶大学 。
当前continual learning常假设,一次一个任务,所有当前数据可用,之前数据不可用。这个硬任务边界条件现实不常满足。
本文提出的系统学习流数据,分布不断变化,不同任务间没有区分。本文方法基于Memory Aware Synapses,提供了以下协议将其转化为online的:
- 何时 更新重要权重
- 更新时 用哪个数据
- 如何在更新时 累积权重重要性
该模型在以下任务上的实验结果展现了有效性:(自)监督人脸识别 ,避免冲撞的机器人。
1.Introduction
机器学习训练与测试阶段是界限分明的,假设了一个静态的世界,其中数据分布不会改变。这种强划分有助于开发算法,但也加上了限制。
受生物系统启发,IL(也可以叫CL、LL)关注打破训练和测试之间的屏障。这个系统累积知识,准确率和适用范围随时间增加。现实中,数据可能因存储和隐私原因不能保留,而只用后来的数据会引入偏差(遗忘)。
像那种一个个依次任务数据可用的学习,本文称作task-based sequential learning,本文目标在于克服这种对硬任务边界的需求。我们探索task-based方法如何普遍地转化为online方法——一个决定何时巩固知识的协议;难样本buffer——从强化学习的experience replay获得启发,一个小得多的replay buffers。
task-based方法一般学习分类任务,为新类在输出层加分类头。与之相反,我们的方法固定输出:人脸识别中我们通过嵌入识别;机器人中,不是输出标签变化,而是环境变化。此两种任务,数据以流来处理,不是i.i.d,有样本不均衡问题。

本文提出了一种Task-Free Continual Learning方法,适用于数据流中分布不断变化的情况,无需硬任务边界。文章介绍了从task-based学习转换为online学习的协议,以及Memory Aware Synapses(MAS)的重要性权重更新策略。实验表明该方法在人脸识别和机器人避障等任务中有效,且在数据分布变化的场景下表现出色。
最低0.47元/天 解锁文章
1245

被折叠的 条评论
为什么被折叠?



