学习率调度器——stepLR和MultiStepLR

 StepLR 和 MultiStepLR 是 PyTorch 中两种常用的学习率调度器,它们的主要区别在于 学习率下降的时机和方式


stepLR

特点

固定间隔下降:每隔固定的 epoch 数(step_size),学习率乘以一个固定的因子(gamma)。

简单直接:适用于学习率需要定期下降的场景。

公式

new\_lr = initial\_lr \times \gamma ^{floor(epoch/step\_size))}

  • step_size:学习率下降的 epoch 间隔。
  • gamma:学习率下降的因子(默认是 0.1)。

 举例

假设初始学习率为 0.1,step_size=30gamma=0.1

  • Epoch 0-29:学习率 = 0.1
  • Epoch 30-59:学习率 = 0.01
  • Epoch 60-89:学习率 = 0.001
  • ...

代码示例

import torch.optim as optim
optimizer = optim.SGD(model.parameters(), lr=0.1)
scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1)

MultiStepLR

特点

自定义下降点:在指定的 epoch 点(milestones),学习率乘以一个固定的因子(gamma)。

灵活性高:适用于学习率需要在多个特定阶段下降的场景。

 公式

new\_lr = initial\_lr \times \gamma ^{count(epoch\geq milestones)}

  • milestones:一个列表,指定学习率下降的 epoch 点。
  • gamma:学习率下降的因子(默认是 0.1)。

举例

假设初始学习率为 0.1,milestones=[30, 60, 200]gamma=0.1

  • Epoch 0-29:学习率 = 0.1
  • Epoch 30-59:学习率 = 0.01
  • Epoch 60-199:学习率 = 0.001
  • Epoch 200+:学习率 = 0.0001

代码示例 

import torch.optim as optim
optimizer = optim.SGD(model.parameters(), lr=0.1)
scheduler = optim.lr_scheduler.MultiStepLR(optimizer, milestones=[30, 60, 200], gamma=0.1)

主要区别

特性StepLRMultiStepLR
下降时机固定间隔(step_size自定义 epoch 点(milestones
灵活性较低较高
适用场景学习率需要定期下降学习率需要在多个特定阶段下降
参数step_sizegammamilestonesgamma

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小老大MUTA️

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值