2020年10月6日,下午3:10 - 4:10 北交九教中102讲座记录。
主题:few shot learning
较为系统的介绍了小样本学习的主流技术脉络: 迁移学习、多任务学习、元学习。
其目的是提升机器学习模型在不同场景的泛化能力。


note : 模型和一系列的预处理手段都可以视作模型的先验知识。


note: 整体框架图。
· Transfer learning : 单任务的迁移 (举例:学数学 考数学)
· Multi-task learning: 多任务的迁移(各种任务之间可以通过共享权重的方式进行关联,else:contact, add, multi-head, 固定主干)(举例:学数学和物理 考数学和物理 --- 任务之间有关联关系,可能是相互促进的,也可能是相互制约的)
· Meta-learning: 多任务学习得到的模型和知识,迁移到新的任务场景下。(举例:野外、

这篇讲座记录探讨了小样本学习的主流方法,包括迁移学习、多任务学习和元学习。讲解了它们在提升模型泛化能力上的应用,强调了模型的先验知识和损失函数的重要性。迁移学习关注单任务适应,多任务学习通过共享权重关联不同任务,而元学习则是结合两者以适应新任务。文中指出,小样本学习的挑战在于学习率调整和任务间的关联性。尽管元学习并不总是优于迁移学习,该领域仍有许多研究空间。
最低0.47元/天 解锁文章
1410

被折叠的 条评论
为什么被折叠?



