由于种种原因, 需要自己写一个lr_scheduler,
目前主流的方法是从optimizer中获取,
代码如下:
optimizer.state_dict()['param_groups'][0]['lr']
本文探讨如何独立实现学习率调度器,不再依赖optimizer内部机制,通过实例代码展示如何从optimizer状态中获取和设置学习率,适合深度理解LR调整策略的开发者阅读。
由于种种原因, 需要自己写一个lr_scheduler,
目前主流的方法是从optimizer中获取,
代码如下:
optimizer.state_dict()['param_groups'][0]['lr']