Pytorch中的optimizer

与优化函数相关的部分在torch.optim模块中,其中包含了大部分现在已有的流行的优化方法。

如何使用Optimizer

要想使用optimizer,需要创建一个optimizer 对象,这个对象会保存当前状态,并根据梯度更新参数。

怎样构造Optimizer

要构造一个Optimizer,需要使用一个用来包含所有参数(Tensor形式)的iterable,把相关参数(如learning rate、weight decay等)装进去。

注意,如果想要使用.cuda()方法来将model移到GPU中,一定要确保这一步在构造Optimizer之前。因为调用.cuda()之后,model里面的参数已经不是之前的参数了。

示例代码如下:

optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum = 0.9)
optimizer = optim.Adam([var1, var2], lr = 0.0001)

常用参数

last_epoch代表上一次的epoch的值,初始值为-1。

单独指定参数

也可以用一个dict的iterable指定参数。这里的每个dict都必须要params这个key,params包含它所属的参数列表。除此之外的key必须它的O

### PyTorch优化器的相关信息 #### 优化器的作用与基本概念 在机器学习模型训练过程中,优化器用于更新网络权重以最小化损失函数。通过调整这些参数,可以提高模型性能并加速收敛过程。 #### 创建自定义权重张量 为了展示如何创建带有梯度属性的张量,在下面的例子中定义了一个`geneWeight()` 函数用来生成随机初始化且具有可求导特性的二维矩阵[^1]: ```python import torch def geneWeight(): weight = torch.randn((2,2), requires_grad=True) weight.grad = torch.ones((2,2)) return weight ``` #### 初始化多个参数组 当需要管理不同子集下的变量(比如冻结某些层),可以通过向 `add_param_group()` 方法传递字典形式的新参数列表实现多组配置的支持。此操作允许为每组设置独立的学习率和其他超参选项,如下所示: ```python torch.manual_seed(0) a = geneWeight() b = geneWeight() optimizer = torch.optim.SGD([a], lr=0.1) optimizer.add_param_group({'params': [b], 'weight_decay': 0.005}) ``` #### 执行单步优化迭代 调用 `.step()` 可触发一次完整的反向传播计算,并依据选定算法自动完成权值修正;而`.zero_grad()` 则负责清除当前累积的所有梯度信息以便下一轮循环正常运作: ```python optimizer.step() # 更新参数 optimizer.zero_grad() # 清除已存梯度 ``` #### 构建参与训练的参数集合 对于更复杂的场景而言,可能只希望部分特定组件参与到实际更新流程当中。此可通过遍历整个模块结构筛选符合条件者加入到待处理队列之中,如代码片段所描述那样[^2]: ```python param_to_optim = [] for param in model.parameters(): if not param.requires_grad: continue param_to_optim.append(param) optimizer = torch.optim.SGD( param_to_optim, lr=0.001, momentum=0.9, weight_decay=1e-4 ) ``` #### 常见优化器种类简介 PyTorch 提供了多种内置优化策略供开发者选用,其中包括但不限于: - **SGD (Stochastic Gradient Descent)**: 随机梯度下降法是最基础也是最常用的优化方式之一; - **Adam**: 自适应矩估计结合了一阶动量和二阶动量的优点,通常能带来更快更好的效果; - **RMSprop**: 根均方误差传播法则特别适合于非稳态环境下的在线/增量式学习任务。
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值