『PyTorch』第十一弹_torch.optim优化器 每层定制参数

本文详细介绍LeNet网络结构及PyTorch实现,并演示优化器的配置与动态学习率调整方法。
部署运行你感兴趣的模型镜像

一、简化前馈网络LeNet

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
import torch as t
 
 
class LeNet(t.nn.Module):
    def __init__(self):
        super(LeNet, self).__init__()
        self.features = t.nn.Sequential(
            t.nn.Conv2d(365),
            t.nn.ReLU(),
            t.nn.MaxPool2d(22),
            t.nn.Conv2d(6165),
            t.nn.ReLU(),
            t.nn.MaxPool2d(22)
        )
        # 由于调整shape并不是一个class层,
        # 所以在涉及这种操作(非nn.Module操作)需要拆分为多个模型
        self.classifiter = t.nn.Sequential(
            t.nn.Linear(16*5*5120),
            t.nn.ReLU(),
            t.nn.Linear(12084),
            t.nn.ReLU(),
            t.nn.Linear(8410)
        )
 
    def forward(self, x):
        = self.features(x)
        = x.view(-116*5*5)
        = self.classifiter(x)
        return x
 
net = LeNet()

 

二、优化器基本使用方法

  1. 建立优化器实例
  2. 循环:
    1. 清空梯度
    2. 向前传播
    3. 计算Loss
    4. 反向传播
    5. 更新参数
1
2
3
4
5
6
7
8
9
10
11
from torch import optim
 
# 通常的step优化过程
optimizer = optim.SGD(params=net.parameters(), lr=1)
optimizer.zero_grad()  # net.zero_grad()
 
input_ = t.autograd.Variable(t.randn(133232))
output = net(input_)
output.backward(output)
 
optimizer.step()

 

三、网络模块参数定制

为不同的子网络参数不同的学习率,finetune常用,使分类器学习率参数更高,学习速度更快(理论上)。

1.经由构建网络时划分好的模组进行学习率设定,

1
2
3
# # 直接对不同的网络模块制定不同学习率
optimizer = optim.SGD([{'params': net.features.parameters()}, # 默认lr是1e-5
                       {'params': net.classifiter.parameters(), 'lr'1e-2}], lr=1e-5)

 

 2.以网络层对象为单位进行分组,并设定学习率

1
2
3
4
5
6
7
8
9
10
# # 以层为单位,为不同层指定不同的学习率
# ## 提取指定层对象
special_layers = t.nn.ModuleList([net.classifiter[0], net.classifiter[3]])
# ## 获取指定层参数id
special_layers_params = list(map(id, special_layers.parameters()))
print(special_layers_params)
# ## 获取非指定层的参数id
base_params = filter(lambda p: id(p) not in special_layers_params, net.parameters())
optimizer = t.optim.SGD([{'params': base_params},
                         {'params': special_layers.parameters(), 'lr'0.01}], lr=0.001)

 

四、在训练中动态的调整学习率

 

1
2
3
4
5
6
7
8
9
'''调整学习率'''
# 新建optimizer或者修改optimizer.params_groups对应的学习率
# # 新建optimizer更简单也更推荐,optimizer十分轻量级,所以开销很小
# # 但是新的优化器会初始化动量等状态信息,这对于使用动量的优化器(momentum参数的sgd)可能会造成收敛中的震荡
# ## optimizer.param_groups:长度2的list,optimizer.param_groups[0]:长度6的字典
print(optimizer.param_groups[0]['lr'])
old_lr = 0.1
optimizer = optim.SGD([{'params': net.features.parameters()},
                       {'params': net.classifiter.parameters(), 'lr': old_lr*0.1}], lr=1e-5)

 可以看到optimizer.param_groups结构,[{'params','lr', 'momentum', 'dampening', 'weight_decay', 'nesterov'},{……}],集合了优化器的各项参数。

 

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

<think>我们正在使用PyTorchtorch.optim.lr_scheduler模块来设置学习率调度器,并在训练过程中记录每个epoch的学习率值,最后用Matplotlib绘制学习率变化曲线。根据用户提供的引用示例,我们可以总结出以下步骤:1.导入必要的库:torch,torch.optim,torch.optim.lr_scheduler,matplotlib.pyplot2.定义一个模型(可以是任意模型,因为我们不进行实际训练,只关注学习率变化)和优化器3.选择一个学习率调度器(如ExponentialLR,CosineAnnealingLR,CyclicLR等)4.模拟训练循环(不需要实际训练数据),在每个epoch后调用scheduler.step(),并记录当前学习率5.使用matplotlib绘制学习率随epoch变化的曲线我们将展示三种常见的学习率调度器的可视化方法:1.指数衰减(ExponentialLR)2.循环学习率(CyclicLR)3.余弦退火(CosineAnnealingLR)注意:在绘制多个调度器时,我们可以分别运行并记录,然后绘制在同一张图上进行比较。由于用户要求用中文回答,我将用中文编写注释和说明。</think> ### 如何在 PyTorch 中使用 Matplotlib 可视化学习率变化曲线 完整步骤如下(含代码示例): #### 1. 导入所需库 ```python import torch import torch.optim as optim from torch.optim import lr_scheduler import matplotlib.pyplot as plt ``` #### 2. 创建模型和优化器(以 SGD 为例) ```python model = torch.nn.Linear(10, 2) # 任意模型 optimizer = optim.SGD(model.parameters(), lr=0.1) # 初始学习率设为 0.1 ``` #### 3. 选择学习率调度策略 根据需求选择调度器并配置参数: **示例 1:指数衰减** 学习率按 $ \alpha_t = \alpha_0 \cdot \gamma^t $ 衰减 ```python scheduler = lr_scheduler.ExponentialLR(optimizer, gamma=0.95) # 每 epoch 衰减 5%[^1] ``` **示例 2:余弦退火** $$ \alpha_t = \eta_{min} + \frac{1}{2}(\alpha_0 - \eta_{min})(1 + \cos(\frac{t}{T_{max}}\pi)) $$ ```python scheduler = lr_scheduler.CosineAnnealingLR(optimizer, T_max=50, eta_min=0.001) # 周期 50 步,最小学习率 0.001[^3] ``` **示例 3:循环学习率** ```python scheduler = lr_scheduler.CyclicLR( optimizer, base_lr=0.001, max_lr=0.1, step_size_up=10, # 上升步数 step_size_down=5, # 下降步数 mode='triangular' # 三角模式 )[^2] ``` #### 4. 记录学习率变化 ```python epochs = 100 lr_history = [] for epoch in range(epochs): # 训练代码(实际训练时需添加) optimizer.step() # 记录当前学习率 current_lr = optimizer.param_groups[0]['lr'] lr_history.append(current_lr) # 更新学习率 scheduler.step() ``` #### 5. 使用 Matplotlib 可视化 ```python plt.figure(figsize=(10, 6)) plt.plot(range(epochs), lr_history, 'b-', linewidth=2) plt.title('Learning Rate Schedule', fontsize=14) plt.xlabel('Epoch', fontsize=12) plt.ylabel('Learning Rate', fontsize=12) plt.grid(True, linestyle='--', alpha=0.7) plt.savefig('lr_schedule.png', dpi=300) plt.show() ``` ### 关键说明 1. **多策略对比**:同时绘制多个调度器曲线时,使用不同颜色和标签: ```python plt.plot(epochs, lr_exp, 'r-', label='Exponential Decay') plt.plot(epochs, lr_cos, 'b--', label='Cosine Annealing') plt.legend() ``` 2. **参数验证**:每个 epoch 打印学习率验证变化是否符合预期: ```python print(f'Epoch {epoch}: LR = {current_lr:.6f}') ``` 3. **中断恢复**:若训练中断需保存/加载调度器状态: ```python checkpoint = { 'scheduler_state': scheduler.state_dict(), 'last_epoch': epoch } torch.save(checkpoint, 'scheduler.pth') ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值