①目的:
1.促使不同任务损失的量级接近。
2.促使不同任务以相近的速度来进行学习。
②实现:
总损失 = w1 *任务一损失 + w2*任务二损失 + w3*任务三损失
对w1,w2,w3建模损失函数,实现①中的目的

2.1 衡量任务loss的量级


2.2 衡量任务loss的学习速度

上式表示 相对反向训练速度,其越大,表示任务i在所有任务中训练越慢。
2.3 Gradient Loss(G
本文探讨了多任务学习中如何通过权重调整来平衡不同任务的损失量级和学习速度,提出了一种总损失函数的形式,并介绍了GradientLoss(GL)的概念。GL通过惩罚梯度标准化值过大或过小的任务,旨在使各个任务的训练速度接近,促进协同学习。
①目的:
1.促使不同任务损失的量级接近。
2.促使不同任务以相近的速度来进行学习。
②实现:
总损失 = w1 *任务一损失 + w2*任务二损失 + w3*任务三损失
对w1,w2,w3建模损失函数,实现①中的目的

2.1 衡量任务loss的量级


2.2 衡量任务loss的学习速度

上式表示 相对反向训练速度,其越大,表示任务i在所有任务中训练越慢。
2.3 Gradient Loss(G
1979
2万+
3532
2025
2188
904

被折叠的 条评论
为什么被折叠?