深度学习模型的多Loss调参技巧

本文探讨了在深度学习模型中处理多目标任务时的损失函数调参技巧,包括GradNorm、Pareto优化、线性加权及权重不确定性等方法,并提供了实践经验和相关论文链接。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在多目标多任务训练的网络中,如果最终的loss为有时为多个loss的加权和,例如 loss = a*loss_x+b*loss_y+c*loss_y+... ,这个问题在微信视频号视频推荐里也存在。任务需要对视频号的某个视频的收藏、点击头像、转发、点赞、评论、查看评论等进行多任务建模,也就产生了多个loss。

cb022577fef4879c58aae7921a67aa72.png

这里贴一下当时比赛的code:

model.compile(loss = {
     'read_comment':'categorical_crossentropy',
                          'like':'categorical_crossentropy',
                          'click_avatar':'categorical_crossentropy',
                          'forward':'categorical_crossentropy',
                          'favorite':'categorical_crossentropy',
                          'comment':'categorical_crossentropy',
                          'follow':'categorical_crossentropy'}, 
                  optimizer = Adam(lr=8e-3), 
                  metrics = {
     'read_comment':"accuracy",
                             'like':
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值