基于重放的持续学习中的困难感知混合方法
1. 引言
在当今的机器学习领域,深度神经网络在众多任务中取得了卓越的性能,尤其是分类问题。然而,传统的模型通常是为解决单个任务或在固定大小的数据集上进行离线学习而设计的。随着现实世界中任务的不断增加,我们面临着无法存储所有模型以及计算资源有限的问题。因此,模型需要具备持续学习的能力,即在面对新任务或新数据时,能够在不遗忘旧知识的情况下进行学习。但不幸的是,深度神经网络在持续学习场景中存在灾难性遗忘的问题,即在训练新任务时,先前任务的性能会急剧下降。
为了解决这一问题,持续学习领域提出了许多方法,其中基于重放的方法是最有效的解决方案之一。该方法通过在内存缓冲区中存储一部分旧数据,并在接收新数据时重放这些旧数据,从而帮助模型保留过去的知识。然而,由于存储空间有限,只能存储少量的旧数据,这导致了新旧任务之间的数据不平衡问题。
为了应对数据不平衡问题,一些研究提出了偏差校正和分离softmax等方法。但数据增强也是解决该问题的重要环节,目前很少有研究关注哪种数据增强方法可以减少数据不平衡的影响。在本文中,我们尝试使用Mixup方法来增加重放样本的多样性。实验结果表明,原始的Mixup方法在重放缓冲区较大时可以带来更好的性能,但在缓冲区较小时性能较差。我们认为这是因为Mixup的合并系数是从beta分布中随机采样的,这使得困难样本变得模糊,难以训练。因此,我们提出了一种困难感知的Mixup方法,根据存储目标和输出logits之间的交叉熵损失来修改合并系数,从而显著提高了平均准确率并减少了遗忘率。
我们的主要贡献如下:
- 将Mixup重放样本引入三种不同类型的重放方法中,增加了重放样本的多样性,并在较大的重放缓冲区中取