与MAML类似,Reptile是一种寻找神经网络初始化参数的元学习方法,在新任务上只需要少量数据进行 fine-tune。与MAML不同的是,Reptile只需要简单地每个任务上执行SGD而不需要像MAML一样计算两次微分。这使得Reptile消耗的计算量和内存更少。在MAML中,作者也使用了一次微分进行了实验,发现效果是差不多的,虽然看起来是丢失了一些信息,确切的说,本文就是基于FOMAML的。
MAML

使用训练集优化内层循环,使用测试集优化模型,也就是外层循环

模型

Reptile将后面一步替换为了使用 ϕ − W \phi-W ϕ−W作为梯度,并使用更复杂的优化器优化 ϕ \phi ϕ,例如Adam。
同样每次迭代可以使用一个batch的数据进行评估,
ϕ ← ϕ + ϵ 1 n ∑ i = 1 n ( ϕ ~ i − ϕ ) \phi\leftarrow\phi+\epsilon\frac{1}{n}\sum_{i=1}^n(\tilde{\phi}_i-\phi) ϕ←ϕ+ϵn<

Reptile是元学习的一种方法,类似于MAML,但计算成本更低,它寻找适合新任务的神经网络初始化参数。与MAML的两次微分不同,Reptile仅用一次SGD更新,减少了计算和内存需求。该算法在每个任务上使用简单的梯度更新,并使用更复杂的优化器如Adam进行优化,提高了泛化能力。
最低0.47元/天 解锁文章
5360

被折叠的 条评论
为什么被折叠?



