四、在训练中动态的调整学习率
| 1 2 3 4 5 6 7 8 9 |
|
可以看到optimizer.param_groups结构,[{'params','lr', 'momentum', 'dampening', 'weight_decay', 'nesterov'},{……}],集合了优化器的各项参数。
--------------------------------------------------------------------
动态修改学习率
for param_group in optimizer.param_groups:
param_group["lr"] = lr
得到学习率 optimizer.param_groups[0]["lr"]
我自己查看的优化器参数
# print('查看optimizer.param_groups结构:')
# i_list=[i for i in optimizer.param_groups[0].keys()]
# print(i_list)
['amsgrad', 'params', 'lr', 'betas', 'weight_decay', 'eps']
参考链接:
https://www.cnblogs.com/hellcat/p/8496727.html
https://www.pytorchtutorial.com/pytorch-learning-rate-decay/
本文详细介绍了在深度学习训练过程中如何动态调整学习率的方法。包括通过新建optimizer或直接修改optimizer.param_groups来实现学习率的调整,以及动态修改学习率的具体代码示例。文章还探讨了不同方法对模型收敛的影响。
745

被折叠的 条评论
为什么被折叠?



