【CV知识点汇总与解析】| optimizer和学习率篇
【写在前面】
本系列文章适合Python已经入门、有一定的编程基础的学生或人士,以及人工智能、算法、机器学习求职的学生或人士。系列文章包含了深度学习、机器学习、计算机视觉、特征工程等。相信能够帮助初学者快速入门深度学习,帮助求职者全面了解算法知识点。
1、常见的优化函数(optimizer)有哪些?
1. SGD(随机梯度下降)
Batch Gradient Descent
在每一轮的训练过程中,Batch Gradient Descent算法用整个训练集的数据计算cost fuction的梯度,并用该梯度对模型参数进行更新:
Θ = Θ − α ⋅ ∇ Θ J ( Θ ) \Theta=\Theta-\alpha \cdot \nabla \Theta J(\Theta) Θ=Θ−α⋅∇ΘJ(Θ)
优点:
- cost fuction若为凸函数,能够保证收敛到全局最优值;若为非凸函数,能够收敛到局部最优值
缺点:
-
由于每轮迭代都需要在整个数据集上计算一次,所以批量梯度下降可能非常慢
-
训练数较多时,需要较大内存
-
批量梯度下降(Batch Gradient Descent)不允许在线更新模型,例如新增实例。
Stochastic Gradient Descent

和批梯度下降算法相反,Stochastic gradient descent 算法每读入一个数据,便立刻计算cost fuction的梯度来更新参数:
Θ = Θ − α ⋅ ∇ Θ J ( Θ ; x ( i ) , y ( i ) ) \Theta=\Theta-\alpha \cdot \nabla_{\Theta} J\left(\Theta ; x^{(i)}, y^{(i)}\right) Θ=Θ−α⋅∇ΘJ(Θ;x(i),y(i))
优点:
-
算法收敛速度快(在Batch Gradient Descent算法中, 每轮会计算很多相似样本的梯度, 这部分是冗余的)
-
可以在线更新
-
有几率跳出一个比较差的局部最优而收敛到一个更好的局部最优甚至是全局最优
缺点:
- 容易收敛到局部最优,并且容易被困在鞍点
Mini-batch Gradient Descent
mini-batch Gradient Descent的方法是在上述两个方法中取折衷, 每次从所有训练数据中取一个子集(mini-batch) 用于计算梯度:
Θ = Θ − α ⋅ ∇ Θ J ( Θ ; x ( i i i + n ) , y ( i : i + n ) ) \Theta=\Theta-\alpha \cdot \nabla_{\Theta} J\left(\Theta ; x^{(i i i+n)}, y^{(i: i+n)}\right) Θ=Θ−α⋅∇ΘJ(Θ;x(iii+n),y(i:i+n))
Mini-batch Gradient Descent在每轮迭代中仅仅计算一个mini-batch的梯度,不仅计算效率高,而且收敛较为稳定。该方法是目前深度学训练中的主流方法。
上述三个方法面临的主要挑战如下:
-
选择适当的学习率α 较为困难。太小的学习率会导致收敛缓慢,而学习速度太块会造成较大波动,妨碍收敛。
-
目前可采用的方法是在训练过程中调整学习率大小,例如模拟退火算法:预先定义一个迭代次数m,每执行完m次训练便减小学习率,或者当cost function的值低于一个阈值时减小学习率。然而迭代次数和阈值必须事先定义,因此无法适应数据集的特点。
-
上述方法中, 每个参数的 learning rate 都是相同的,这种做法是不合理的:如果训练数据是稀疏的,并且不同特征的出现频率差异较大,那么比较合理的做法是对于出现频率低的特征设置较大的学习速率,对于出现频率较大的特征数据设置较小的学习速率。
-
近期的的研究表明,深层神经网络之所以比较难训练,并不是因为容易进入local minimum。相反,由于网络结构非常复杂,在绝大多数情况下即使是 local minimum 也可以得到非常好的结果。而之所以难训练是因为学习过程容易陷入到马鞍面中,即在坡面上,一部分点是上升的,一部分点是下降的。而这种情况比较容易出现在平坦区域,在这种区域中,所有方向的梯度值都几乎是 0。
2. Momentum
SGD方法的一个缺点是其更新方向完全依赖于当前batch计算出的梯度,因而十分不稳定。Momentum算法借用了物理中的动量概念,它模拟的是物体运动时的惯性,即更新的时候在一定程度上保留之前更新的方向,同时利用当前batch的梯度微调最终的更新方向。这样一来,可以在一定程度上增加稳定性,从而学习地更快,并且还有一定摆脱局部最优的能力:
v t = γ ⋅ v t − 1 + α ⋅ ∇ Θ J ( Θ ) Θ = Θ − v t v_{t}=\gamma \cdot v_{t-1}+\alpha \cdot \nabla_{\Theta} J(\Theta)\\\Theta=\Theta-v_{t} vt=γ⋅vt−1+α⋅∇ΘJ(Θ)Θ=Θ−vt
Momentum算法会观察历史梯度 v t − 1 v_{t-1} vt−1,若当前梯度的方向与历史梯度一致(表明当前样本不太可能为异常点),则会增强这个方向的梯度,若当前梯度与历史梯方向不一致,则梯度会衰减。一种形象的解释是**:**我们把一个球推下山,球在下坡时积聚动量,在途中变得越来越快,γ可视为空气阻力,若球的方向发生变化,则动量会衰减。
3. Nesterov Momentum
在小球向下滚动的过程中,作者希望小球能够提前知道在哪些地方坡面会上升,这样在遇到上升坡面之前,小球就开始减速。这方法就是Nesterov Momentum,其在凸优化中有较强的理论保证收敛。并且,在实践中Nesterov Momentum也比单纯的 Momentum 的效果好:
v t = γ ⋅ v t − 1 + α ⋅ ∇ Θ J ( Θ − γ v t − 1 ) Θ = Θ − v t v_{t}=\gamma \cdot v_{t-1}+\alpha \cdot \nabla_{\Theta} J\left(\Theta-\gamma v_{t-1}\right)\\\Theta=\Theta-v_{t} vt
优化器精讲

本文深入讲解了优化器原理,包括SGD、Momentum等经典算法,以及Adagrad、RMSprop、Adam等自适应学习率算法。对比了不同优化器的优缺点,并指导如何选择合适的优化器。
最低0.47元/天 解锁文章
2213

被折叠的 条评论
为什么被折叠?



