adadelta算法_【深度学习】深入理解优化器Optimizer算法(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)...

本文详细介绍了Batch Gradient Descent、Stochastic Gradient Descent (SGD) 和 Mini-Batch Gradient Descent三种梯度下降算法的工作原理及优缺点。此外,还讨论了针对SGD存在的问题而提出的改进算法,如Momentum、Nesterov Accelerated Gradient、Adagrad、Adadelta、RMSprop以及Adam等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Batch gradient descent 对于凸函数可以收敛到全局极小值,对于非凸函数可以收敛到局部极小值。

2.Stochastic Gradient Descent (SGD)

梯度更新规则:

和 BGD 的一次用所有数据计算梯度相比,SGD 每次更新时对每个样本进行梯度更新,对于很大的数据集来说,可能会有相似的样本,这样 BGD 在计算梯度时会出现冗余,而SGD 一次只进行一次更新,就没有冗余,而且比较快,并且可以新增样本。

for i inrange(nb_epochs):

np.random.shuffle(data)for example indata:

params_grad=evaluate_gradient(loss_function, example, params)

params= params - learning_rate * params_grad

看代码,可以看到区别,就是整体数据集是个循环,其中对每个样本进行一次参数更新。

随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况,那么可能只用其中部分的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。缺点是SGD的噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。所以虽然训练速度快,但是准确度下降,并不是全局最优。虽然包含一定的随机性,但是从期望上来看,它是等于正确的导数的。

缺点:

SGD 因为更新比较频繁,会造成 cost function 有严重的震荡。

BGD 可以收敛到局部极小值,当然 SGD 的震荡可能会跳到更好的局部极小值处。

当我们稍微减小 learning rate,SGD 和 BGD 的收敛性是一样的。

3.Mini-Batch Gradient Descent (MBGD)

梯度更新规则:

MBGD 每一次利用一小批样本,即 n 个样本进行计算,这样它可以降低参数更新时的方差,收敛更稳定,另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。

和 SGD 的区别是每一次循环不是作用于每个样本,而是具有 n 个样本的批次。

for i inrange(nb_epochs):

np.random.shuffle(data)for batch in get_batches(data, batch_size=50):

params_grad=evaluate_gradient(loss_function, batch, params)

params= params - learning_rate * params_grad

超参数设定值:  n 一般取值在 50~256

缺点:(两大缺点)

不过 Mini-batch gradient descent 不能保证很好的收敛性,learning rate 如果选择的太小,收敛速度会很慢,如果太大,loss function 就会在极小值处不停地震荡甚至偏离。(有一种措施是先设定大一点的学习率,当两次迭代之间的变化低于某个阈值后,就减小 learning rate,不过这个阈值的设定需要提前写好,这样的话就不能够适应数据集的特点。)对于非凸函数,还要避免陷于局部极小值处,或者鞍点处,因为鞍点周围的error是一样的,所有维度的梯度都接近于0,SGD 很容易被困在这里。(会在鞍点或者局部最小点震荡跳动,因为在此点处,如果是训练集全集带入即BGD,则优化会停止不动,如果是mini-batch或者SGD,每次找到的梯度都是不同的,就会发生震荡,来回跳动。)

SGD对所有参数更新时应用同样的 learning rate,如果我们的数据是稀疏的,我们更希望对出现频率低的特征进行大一点的更新。LR会随着更新的次数逐渐变小。

鞍点就是:一个光滑函数的鞍点邻域的曲线,曲面,或超曲面,都位于这点的切线的不同边。例如这个二维图形,像个马鞍:在x-轴方向往上曲,在y-轴方向往下曲,鞍点就是(0,0)。

为了应对上面的两点挑战就有了下面这些算法。

前期知识:指数加权平均,请参看博文《什么是指数加权平均、偏差修正?》

[应对挑战 1]

4.Momentum

SGD 在 ravines 的情况下容易被困住, ravines 就是曲面的一个方向比另一个方向更陡,这时 SGD 会发生震荡而迟迟不能接近极小值:

梯度更新规则:

Momentum 通过加入 γ*vt−1 ,可以加速 SGD, 并且抑制震荡

当我们将一个小球从山上滚下来时,没有阻力的话,它的动量会越来越大,但是如果遇到了阻力,速度就会变小。

加入的这一项,可以使得梯度方向不变的维度上速度变快,梯度方向有所改变的维度上的更新速度变慢,这样就可以加快收敛并减小震荡。

超参数设定值:  一般 γ 取值 0.9 左右。

缺点:

这种情况相当于小球从山上滚下来时是在盲目地沿着坡滚,如果它能具备一些先知,例如快要上坡时,就知道需要减速了的话,适应性会更好。

5.Nesterov Accelerated Gradient

梯度更新规则:

用 θ−γv_t−1 来近似当做参数下一步会变成的值,则在计算梯度时,不是在当前位置,而是未来的位置上

超参数设定值:  一般 γ 仍取值 0.9 左右。

效果比较:

蓝色是 Momentum 的过程,会先计算当前的梯度,然后在更新后的累积梯度后会有一个大的跳跃。

而 NAG 会先在前一步的累积梯度上(brown vector)有一个大的跳跃,然后衡量一下梯度做一下修正(red vector),这种预期的更新可以避免我们走的太快。

NAG 可以使 RNN 在很多任务上有更好的表现。

目前为止,我们可以做到,在更新梯度时顺应 loss function 的梯度来调整速度,并且对 SGD 进行加速。

我们还希望可以根据参数的重要性而对不同的参数进行不同程度的更新。

[应对挑战 2]

6.Adagrad (Adaptive gradient algorithm)

这个算法就可以对低频的参数做较大的更新,对高频的做较小的更新,也因此,对于稀疏的数据它的表现很好,很好地提高了 SGD 的鲁棒性,例如识别 Youtube 视频里面的猫,训练 GloVe word embeddings,因为它们都是需要在低频的特征上有更大的更新。

梯度更新规则:

其中 g 为:t 时刻参数 θ_i 的梯度

如果是普通的 SGD, 那么 θ_i 在每一时刻的梯度更新公式为:

但这里的 learning rate η 也随 t 和 i 而变:

其中 Gt 是个对角矩阵, (i,i) 元素就是 t 时刻参数 θi 的梯度平方和。

Adagrad 的优点是减少了学习率的手动调节

超参数设定值:一般η选取0.01

缺点:

它的缺点是分母会不断积累,这样学习率就会收缩并最终会变得非常小。

7.Adadelta

这个算法是对 Adagrad 的改进,

和 Adagrad 相比,就是分母的 G 换成了过去的梯度平方的衰减平均值,指数衰减平均值

这个分母相当于梯度的均方根 root mean squared (RMS),在数据统计分析中,将所有值平方求和,求其均值,再开平方,就得到均方根值 ,所以可以用 RMS 简写:

其中 E 的计算公式如下,t 时刻的依赖于前一时刻的平均和当前的梯度:

梯度更新规则:

此外,还将学习率 η 换成了 RMS[Δθ],这样的话,我们甚至都不需要提前设定学习率了:

超参数设定值:  γ 一般设定为 0.9

7.RMSprop

RMSprop 是 Geoff Hinton 提出的一种自适应学习率方法。

RMSprop 和 Adadelta 都是为了解决 Adagrad 学习率急剧下降问题的,

梯度更新规则:

RMSprop 与 Adadelta 的第一种形式相同:(使用的是指数加权平均,旨在消除梯度下降中的摆动,与Momentum的效果一样,某一维度的导数比较大,则指数加权平均就大,某一维度的导数比较小,则其指数加权平均就小,这样就保证了各维度导数都在一个量级,进而减少了摆动。允许使用一个更大的学习率η)

超参数设定值:

Hinton 建议设定 γ 为 0.9, 学习率 η 为 0.001。

8.Adam:Adaptive Moment Estimation

这个算法是另一种计算每个参数的自适应学习率的方法。相当于 RMSprop + Momentum

除了像 Adadelta 和 RMSprop 一样存储了过去梯度的平方 vt 的指数衰减平均值 ,也像 momentum 一样保持了过去梯度 mt 的指数衰减平均值:

如果 mt 和 vt 被初始化为 0 向量,那它们就会向 0 偏置,所以做了偏差校正,通过计算偏差校正后的 mt 和 vt 来抵消这些偏差:

梯度更新规则:

超参数设定值:

建议 β1 = 0.9,β2 = 0.999,ϵ = 10e−8

实践表明,Adam 比其他适应性学习方法效果要好。

二.效果比较

下面看一下几种算法在鞍点和等高线上的表现:

SGD optimization on saddle point

SGD optimization on loss surface contours

上面两种情况都可以看出,Adagrad, Adadelta, RMSprop 几乎很快就找到了正确的方向并前进,收敛速度也相当快,而其它方法要么很慢,要么走了很多弯路才找到。

由图可知自适应学习率方法即 Adagrad, Adadelta, RMSprop, Adam 在这种情景下会更合适而且收敛性更好。

三.如何选择优化算法

如果数据是稀疏的,就用自适用方法,即 Adagrad, Adadelta, RMSprop, Adam。

RMSprop, Adadelta, Adam 在很多情况下的效果是相似的。

Adam 就是在 RMSprop 的基础上加了 bias-correction 和 momentum,

随着梯度变的稀疏,Adam 比 RMSprop 效果会好。

整体来讲,Adam 是最好的选择。

很多论文里都会用 SGD,没有 momentum 等。SGD 虽然能达到极小值,但是比其它算法用的时间长,而且可能会被困在鞍点。

如果需要更快的收敛,或者是训练更深更复杂的神经网络,需要用一种自适应的算法。

### 优化算法详解 在机器学习和深度学习中,优化算法是训练模型的核心工具之一。优化算法的目标是通过最小化损失函数(或代价函数)来找到最优的模型参数。以下是对几种常见优化算法的详细说明: #### 梯度下降法(Gradient Descent) 梯度下降法是一种经典的优化算法,其核心思想是沿着损失函数的负梯度方向更新参数,以逐步逼近最小值。根据每次更新使用的数据量,梯度下降可以分为以下几种形式: - **批量梯度下降(Batch Gradient Descent, BGD)**:每次迭代使用整个训练集计算梯度。这种方法计算稳定,但计算成本高。 - **随机梯度下降(Stochastic Gradient Descent, SGD)**:每次迭代仅使用一个样本计算梯度。这种方法计算速度快,但更新过程可能较为不稳定。 - **小批量梯度下降(Mini-Batch Gradient Descent, MBGD)**:每次迭代使用一小批样本计算梯度,是BGDSGD的折中方案,兼顾了计算效率和稳定性[^1]。 #### 梯度下降法的改进 为了克服标准梯度下降法的不足(如收敛速度慢、容易陷入局部最优等),研究者提出了多种改进算法: - **动量法(Momentum)**:在梯度下降的基础上引入动量项,加速梯度方向上的更新,并抑制震荡。 - **Nesterov Accelerated Gradient (NAG)**:与动量法类似,但先根据动量方向进行预测,再计算梯度进行更新,具有更好的收敛性。 - **Adagrad**:为每个参数分配独立的学习率,适用于稀疏数据。 - **Adadelta**:改进了Adagrad,解决了学习率逐渐衰减至零的问题。 - **RMSprop**:通过引入指数加权移动平均,解决了Adagrad学习率衰减问题。 - **Adam**:结合了动量法和RMSprop的优点,是目前深度学习中最常用的优化器之一。 #### 牛顿法与拟牛顿法(Newton's Method & Quasi-Newton Methods) - **牛顿法**:利用损失函数的二阶导数(Hessian矩阵)来加速收敛,通常比梯度下降法更快,但计算Hessian矩阵及其逆矩阵的成本较高。 - **拟牛顿法**:通过近似Hessian矩阵或其逆矩阵来减少计算成本,常见的拟牛顿法包括BFGS和L-BFGS。 #### 共轭梯度法(Conjugate Gradient) 共轭梯度法是一种介于梯度下降法和牛顿法之间的优化算法。它不需要计算Hessian矩阵,但比梯度下降法具有更快的收敛速度,适用于大规模问题。 #### 优化算法的选择 在实际应用中,选择合适的优化算法需要综合考虑以下因素: - 数据规模:对于大规模数据集,通常选择SGDAdam。 - 模型复杂度:对于复杂模型,可能需要使用自适应学习率算法(如Adam)。 - 计算资源:如果计算资源有限,可以选择MBGD或拟牛顿法。 #### 代码实现 以下是一个使用PyTorch实现Adam优化器的示例代码: ```python import torch import torch.nn as nn import torch.optim as optim # 定义一个简单的线性模型 model = nn.Linear(10, 1) # 定义损失函数 criterion = nn.MSELoss() # 定义Adam优化器 optimizer = optim.Adam(model.parameters(), lr=0.001) # 模拟输入数据 inputs = torch.randn(32, 10) targets = torch.randn(32, 1) # 前向传播 outputs = model(inputs) loss = criterion(outputs, targets) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() ``` #### 局部最优与鞍点问题 在优化过程中,局部最优和鞍点问题是常见的挑战。局部最优是指优化算法收敛到一个局部最小值而非全局最小值。鞍点则是指在某些方向上梯度为零,但并非极值点。现代优化算法(如Adam)通过动量和自适应学习率机制,能够在一定程度上缓解这些问题[^3]。 ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值