持续概念学习:理论与算法详解
1. 灾难性遗忘与解决方案
在机器学习中,灾难性遗忘是一个重大挑战。当模型学习新任务时,往往会忘记之前学习任务的知识,导致性能下降。为了解决这个问题,经验回放是一种有效的方法。它通过不断存储和重放过去学习任务的数据点,使模型保留过去学习任务的概率分布。
为避免使用内存缓冲区存储过去任务的样本,我们可以使用生成模型为过去的任务生成伪数据点。例如,生成对抗学习可以用于匹配过去任务和当前任务的累积分布,从而为经验回放生成伪数据点。自动编码器结构也可用于生成伪数据点。
我们开发了一种新的生成式经验回放方法来解决灾难性遗忘问题。与以往的工作不同,我们证明了即使只有初始任务有标记数据,经验回放也是可行的。我们将少样本学习的思想与生成式经验回放相结合,开发了一个框架,该框架可以在终身学习环境中遇到新领域时不断更新和泛化所学概念。
2. 问题陈述与解决方案
在我们的框架中,每个领域的概念学习被视为一个分类任务,例如不同类型的数字字符识别。我们考虑一个持续学习的环境,在这个环境中,智能体在其生命周期内按顺序接收连续的任务 ${Z(t)} {t = 1}^{T {Max}}$。任务的总数、任务的分布和任务的顺序事先是未知的。
每个任务代表一个特定的领域,例如不同类型的数字字符。智能体在每个时间步学习当前任务,然后继续学习下一个任务。从经验中获得的知识用于有效地学习当前任务,同时使用最少数量的标记数据。新学习的知识也会积累到过去的经验中,以便在未来更容易学习。
我们将抽象概念建模为依赖于领域的分类任务中的一个类别。每个任务的数据点是从联合概率分布中独立同分布抽取的。我
超级会员免费看
订阅专栏 解锁全文
15万+

被折叠的 条评论
为什么被折叠?



