元学习:Meta Learning on a Sequence of Imbalanced Domains with Difficulty Awareness(一)

      https://github.com/ joey-wang123/Imbalancemeta.git .

     以上是作者给出的原论文的验证的代码。这篇顶会论文在ICCV 2021上发表。原顶会论文可在知网等检索网站检索。论文的名字为Meta Learning on a Sequence of Imbalanced Domains with Difficulty Awareness可会意为“一类难以理解的不平衡域的元学习”也可理解为“具有困难意识的非平衡域序列的元学习”。这篇顶会文章的质量非常高,我也是花了一星期的时间进行深入理解。下面我们首先简单了解一下元学习的概念:

     元学习是目前人工智能领域中一个令人振奋的研究方向。随着大量研究论文的发表和研究进展的取得,元学习在人工智能领域取得了重大突破。在开始探讨元学习之前,先来了解一下当前 的人工智能模型的工作原理。
     近年来,随着生成对抗网络和胶囊网络等优秀算法的出现,深度学习得到了快速的发展。但问题是,深度神经网络需要大规模的训练集来训练模型。当数据点很少时,它会突然失效。假设我们训练了一个深度学习模型来执行任务A。当我们有一个和A紧密相关的新任务B时,就不能使用相同的模型,而是需要从零开始为任务B训练模型。因此,虽然每个任务可能是相关的,但都需要从零开始训练模型。

深度学习真的是真正的人工智能吗?答案是否定的。我们人类是如何学习的呢?我们将学到的东西归纳为多个概念并从中学习。不过目前的学习算法只能处理一项任务。这就是元学习的用武之地。元学习能够生成一个通用的人工智能模型来学习执行各种任务,而无须从零开始训练它们。我们可以用很少的数据点来训练元学习模型去完成各种相关的任务,因此对于一个新任务,元学习模型可以利用之前从相关任务中获得的知识,无须从零开始训练。许多研究人员和科学家认为,元学习可以让我们更接近 AGI。因此元学习又被称为“学会学习”。对于元学习的算法,例如孪生网络(siamese network)、原型网络(prototypical network)、关系网络(relationnetwork)和记忆增强网络(memory-augmented network),并在 TensorFlow 与Keras中实现它们;了解先进的元学习算法,如模型无关元学习(model-agnostic meta learningMAML)、Reptile 和元学习的上下文适应(context adaptation via meta learningCAML);探索如何使用元随机梯度下降法(meta stochastic gradient descentMeta-SGD)来快速学习,以及如何使用元学习来进行无监督学习不是本文的重点。本文主要阐述这篇顶会论文的思想与实现。

以下是论文的开头:
Recognizing new objects by learning from a few labeled examples in an evolving environment is crucial to obtain excellent generalization ability for real-world machine learning systems. A typical setting across current meta learning algorithms assumes a stationary task distribution during meta training. In this paper, we explore a more practi cal and challenging setting where task distribution changes over time with domain shift. Particularly, we consider re alistic scenarios where task distribution is highly imbal anced with domain labels unavailable in nature. We pro pose a kernel-based method for domain change detection and a difficulty-aware memory management mechanism that jointly considers the imbalanced domain size and domain
importance to learn across domains continuously. Furthermore, we introduce an efficient adaptive task sampling method during meta training, which significantly reduces task gradient variance with theoretical guarantees. Finally, we propose a challenging benchmark with imbalanced do
main sequences and varied domain difficulty. We have performed extensive evaluations on the proposed benchmark, demonstrating the effectiveness of our method.

文章简要阐述了论文的目的:元学习目前的典型背景算法在执行过程中假设任务分布是一种固定的训练。而为了提高对于真实世界的泛化能力,本文实现了具有困难意识的一系列不平衡领域的元学习,为此,作者通过探索了一种更实际、更具挑战性,其中任务分布会发生变化的环境。为此作者们做了以下几件事情:

1、提出了一个新的具有挑战性的基准,包括不平衡域序列。

2、提出了一种新的机制,“具有域分布和困难感知的内存管理”,以最大限度地保留以前的知识内存缓冲区中的域。

3、提出了一种高效的自适应任务抽样方法。此方法的作用在元训练期间,在理论保证的情况下,显著降低了总体估计方差,使元训练过程更加稳定,提高模型性能。

4、而作者所给出的方法特定元学习是正交的方法,并且可以与它们无缝集成。

对于问题的解决呢作者通过一系列小批量培训任务进行了简要的说明,读者可以自行阅读以下:

A series of mini-batch training tasks T 1 , T 2 , . . . , T N arrive sequentially, with possible domain shift occurring in the stream, i.e., the task stream can be segmented by continual la tent domains, D 1 , D 2 , . . . , D L . T t denotes the mini-batch of tasks arrived at time t . The domain identity associated with each task remains unavailable during both meta training and testing. Domain boundaries, i.e., indicatin
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

talentstars

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值