lr_scheduler.StepLR调整学习率机制

StepLR是PyTorch中一种学习率调度器,它按照预设的步长和衰减因子定期降低学习率。在每个step_size个epoch后,学习率会乘以gamma进行调整。例如,在示例程序中,初始学习率为0.1,每3个epoch衰减一次,衰减率为0.1。
部署运行你感兴趣的模型镜像

lr_scheduler.StepLR调整学习率机制

可以借助于torch.optim.lr_scheduler类来进行调整;torch.optim.lr_scheduler模块提供了一些根据epoch训练次数来调整学习率(learning rate)的方法。一般情况下我们会设置随着epoch的增大而逐渐减小学习率从而达到更好的训练效果。

下面介绍了一种调整策略机制:StepLR机制;

1.torch.optim.lr_scheduler.StepLR

函数原型:

class torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)
  • 更新过程:

    等间隔调整学习率,调整倍数为gamma倍,调整间隔为step_size。间隔单位是step。需要注意的是,step通常是指epoch,不要弄成iteration了

  • 参数:

    • optimizer (Optimizer):要更改学习率的优化器
    • step_size(int):每训练step_size个epoch,更新一次参数
    • gamma(float):更新lr的乘法因子
    • ast_epoch (int):最后一个epoch的index,如果是训练了很多个epoch后中断了,继续训练,这个值就等于加载的模型的epoch。默认为-1表示从头开始训练,即从epoch=1开始

实例程序:

import torch
import torch.nn as nn
from torch.optim.lr_scheduler import StepLR
import itertools
 
 
initial_lr = 0.1
 
class model(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(in_channels=3, out_channels=3, kernel_size=3)
 
    def forward(self, x):
        pass
 
net_1 = model()
 
optimizer_1 = torch.optim.Adam(net_1.parameters(), lr = initial_lr)
scheduler_1 = StepLR(optimizer_1, step_size=3, gamma=0.1)
 
print("初始化的学习率:", optimizer_1.defaults['lr'])
 
for epoch in range(1, 11):
    # train
 
    optimizer_1.zero_grad()
    optimizer_1.step()
    print("第%d个epoch的学习率:%f" % (epoch, optimizer_1.param_groups[0]['lr']))
    scheduler_1.step()

运行结果:

初始化的学习率: 0.11个epoch的学习率:0.1000002个epoch的学习率:0.1000003个epoch的学习率:0.1000004个epoch的学习率:0.0100005个epoch的学习率:0.0100006个epoch的学习率:0.0100007个epoch的学习率:0.0010008个epoch的学习率:0.0010009个epoch的学习率:0.00100010个epoch的学习率:0.000100

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

`torch.optim.lr_scheduler.StepLR` 是 PyTorch 提供的一种动态调整学习率(Learning Rate)的策略工具。其基本思想是以固定的间隔周期逐步减少优化过程中所使用的学习率值,从而达到更好地收敛目的。 具体而言,StepLR 类似于一种分段常数函数的形式:每隔指定好的若干轮次(epoch),就按照预先设定的比例降低当前学习速率。这种做法通常被称为“阶梯式递减法”。 以下是几个关键参数说明: - **step_size** : 表示每经过多少个 epoch 后开始乘以 gamma 更新新的 learning rate. - **gamma** : 定义了每次更新时缩小原来 LR 值的程度因子,默认为 0.1 即代表若原有 LR=0.01 则新一期变为 0.001. 举例来说: 假设初始 learning_rate = 0.1, step_size = 30 epochs, 而 gamma 取作常见的折扣比例如 0.1; 那么当训练到第30、60、90...等整倍数期满之际就会依次把现有的 learning rate 分别降至原来的十分之一、百分之一乃至千分之一下去运行后续计算任务直至结束整个流程为止。 下面是一个简单的例子演示如何结合 StepLR 进行训练: ```python import torch from torch import optim model = ... # 自己构建或者导入已有的深度神经网络模型结构体 optimizer = optim.SGD(model.parameters(), lr=0.01) scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1) for epoch in range(100): # 设定总的迭代次数上限为一百回合左右即可满足一般情况需求 train(...) # 执行一次完整的前向传播+反向误差回传以及权重参数修正操作序列集合 scheduler.step() # 根据调度计划完成本轮对应的学习率调节动作 print("Final Learning Rate:", optimizer.param_groups[0]['lr']) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值