0 Abstract

· 问题:多任务学习中,通常简单任务将被不必要地强调,从而使得困难任务的训练进程被减缓(有可能造成简单任务过拟合,困难任务欠拟合,同时降低各种任务的性能);
· 解决:提出动态优先级,自适应地调整不同任务损失函数的权值。
1 Introduction
· 启发:人类进行学习时会动态分配不同的心理资源(不同学习优先级)到不同难度的任务中,而计算模型也可能做到。
· 当前多任务存在的问题:简单任务在表现好时仍占有较多资源,使得困难任务得以训练得到较好的性能。
· 关键问题:为什么课程式学习(Curriculum Learning)不能应用于多任务?将什么资源分配给位于什么优先级的任务?
① 课程式学习将单个任务分解为若干个子任务,并且按照难度递增的顺序进行训练(先训练简单任务再训练困难任务)。然而其有【任务同分布,并且随时间熵增】的假设,在多任务中,通常不同任务之间没有相同的分布;
② 可分配的资源有梯度步幅、参数统计和更新频率等。
· 文章贡献:
① 在example-level和task-level上分析得出更多的学习资源应该分配给困难任务;
② 提出一个统一框架:动态对任务的优先级进行排序,使用learning processing signals来计算权重。
2 Related Work
方法一:使用task-level权重为不同任务分配不同优先级
① 联合损失函数的权重(Loss(total)

本文探讨了多任务学习中简单任务可能过度主导训练过程,导致困难任务性能下降的问题。为了解决这个问题,提出了动态任务优先级(DTP)的概念,通过自适应调整任务损失函数的权重来确保困难任务得到更多关注。DTP使用学习过程信号来计算任务的优先级,同时在样本级别和任务级别上调整优先级。此外,Focal Loss作为一种关注困难样本的技术,也被应用到分类和回归任务中。该框架对于构建更有效的多任务学习模型具有重要意义。
最低0.47元/天 解锁文章
964

被折叠的 条评论
为什么被折叠?



