引言:MAML是元学习的经典论文,也是基于optimization based meta-learning方法的开山之作,后序很多工作都是follow这篇工作。目前已经有13140的引用,其算法思想很巧妙,值得反复品读。
论文链接:http://proceedings.mlr.press/v70/finn17a/finn17a.pdf
Motivation:这里参考李宏毅老师的讲解,MAML的目的是找到最适合优化的初始化参数,这样在泛化到新的任务的时候,模型就能只进行少量的优化,就能达到一个比较好的性能。
MAML与传统的pretrain算法的对比:


而传统的预训练是为了找到一组在预训练的所有任务上表现得都比较好的参数。

也就是说MAML是为了使得模型具有适应新任务的潜力,而预训练更加关注模型在当前任务上的表现如何。

最低0.47元/天 解锁文章
5925

被折叠的 条评论
为什么被折叠?



