文中元学习(Meta Learning)是学习了李宏毅教授的视频https://www.bilibili.com/video/BV1w4411872t?from=search&seid=1873861796790113250(关于文中的公式推导,实际上是MAML的公式推导)
-
参数更新公式:

其中第一个公式为MAML中初始参数的更新,也就是MAML想要做的,找到一个较好的初始参数。
第二个公式为MAML的损失函数,是所有task损失函数的和。
第三个公式为每一个task的初始参数更新,MAML中限制只更新一次。 -
提出问题:
根据参数更新的第一,二两个公式,可以将公式一中的梯度写成如下:

此时,有一个问题,梯度是

那么
- 公式推导

本文详细解析了李宏毅教授关于元学习的视频内容,重点介绍了MAML(Model-Agnostic Meta-Learning)的参数更新公式。首先,阐述了MAML寻找最优初始参数的目标,接着解释了损失函数的构成,并讨论了每个任务参数的一次性更新。在推导过程中,将梯度表示为对所有任务损失函数的梯度期望,探讨了其数学表达式,深入理解元学习的核心机制。
最低0.47元/天 解锁文章
1201

被折叠的 条评论
为什么被折叠?



