基础 --- 优化方法(一)

本文深入探讨了梯度下降法、牛顿法、共轭梯度法等优化算法的原理及应用,对比分析了多种梯度下降变种如SGD、Momentum、Adam等的优缺点,并介绍了L1、L2正则化求解方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 梯度下降法(Gradient Descent)

针对无约束最优化问题,梯度下降法是常用的最优化方法之一,其法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。

梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢。

目标函数:
m i n x ∈ R n f ( x ) = m i n x ∈ R n f ( x k ) + f ′ ( x k ) ( x − x k ) \begin{aligned} & \underset {x\in R^n}{min}f(x) \\ = & \underset {x\in R^n}{min} f(x^k) + f'(x^k)(x-x^k) \\ \end{aligned} =xRnminf(x)xRnminf(xk)+f(xk)(xxk)
根据上式,我们更新第k+1次的值
x k + 1 ← x k + λ ∗ f ′ ( x k ) x^{k+1} \leftarrow x^k + \lambda*f'(x^k) xk+1xk+λf(xk)

梯度下降法的搜索迭代示意图如下图所示:

梯度下降法的缺点

  • 靠近极小值时收敛速度减慢,如下图所示
  • 直线搜索时可能会产生一些问题
  • 可能会“之字形”地下降

从上图可以看出,梯度下降法在接近最优解的区域收敛速度明显变慢,利用梯度下降法求解需要很多次的迭代。
在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法

1.1 SGB/BGD

比如对一个线性回归(Linear Logistics)模型,假设下面的h(x)是要拟合的函数, J ( θ ) J(\theta) J(θ)为损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数 h ( θ ) h(\theta) h(θ)就出来了。其中m是训练集的样本个数,n是特征的个数

h ( θ ) = ∑ j = 0 n θ j x j J ( θ ) = 1 2 m ∑ i = 1 m ( y i − h θ ( x i ) ) 2 \begin{aligned} & h(\theta)=\sum_{j=0}^n \theta_jx_j\\ & J(\theta)=\frac{1}{2m}\sum_{i=1}^m(y^i-h_{\theta}(x^i))^2 \end{aligned} h(θ)=j=0nθjxjJ(θ)=2m1i=1m(yihθ(xi))2

批量梯度下降法(Batch Gradient Descent,BGD)

(1)每个 θ \theta θ的更新:
θ j ′ = θ j + 1 m ∑ i = 1 m ( y i − h θ ( x i ) ) x j i \theta_j' = \theta_j + \frac{1}{m}\sum_{i=1}^m(y^i-h_{\theta}(x^i))x_j^i θj=θj+m1i=1m(yihθ(xi))xji

(2)从上面公式可以注意到,每迭代一步,就要用到m中所有数据,如果m很大,那么可想而知这种方法的迭代速度会相当的慢。所以,这就引入了另外一种方法——随机梯度下降。

随机梯度下降法

(1)每个 θ \theta θ的更新变成如下形式:
θ j ′ = θ j + ( y i − h θ ( x i ) ) x j i \theta_j' = \theta_j + (y^i-h_{\theta}(x^i))x_j^i θj=θj+(yihθ(xi))xji
随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况,那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。

总结

批量梯度下降—最小化batch训练样本的损失函数,即求解的参数是使得风险函数最小,解较优,但是对于大规模样本问题效率低下。

随机梯度下降—最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近,适用于大规模训练样本情况。

改进方法

1.2 Momentum

在梯度下降的基础上, 增加了动量(Momentum)的技术,就是为了加快学习过程,特别是对于高曲率、小但一致的梯度,或者噪声比较大的梯度能够很好的加快学习过程。其主要思想是积累了之前梯度指数级衰减的移动平均(前面的指数加权平均),下面用一个图来对比下,SGD和动量的区别:
在这里插入图片描述

1.3 Nesterov Momentum

Nesterov Momentum是对Momentum的改进,区别在于计算更新梯度的时候,Momentum是点 x t x^t xt梯度 g t g^t gt)与该点 x t x^t xt梯度指数加权平均 ( v t − 1 ) (v^{t-1}) (vt1)的和 ( v t ) (v^{t}) (vt)作为该点新梯度的方向;

而Nesterov Momentum是 x t x^t xt先按上次梯度 v t − 1 v^{t-1} vt1平移后的新点 x ′ t x'^t xt的梯度 g t g^t gt与该点(依然是 x t x^t xt)的梯度指数加权平均 ( v t − 1 ) (v^{t-1}) (vt1)的和作为原点 x t x^t xt的更新方向;

具体算法差异:

  1. 输入:学习率 ϵ \epsilon ϵ,动量参数 α \alpha α,初始参数值 θ \theta θ, 初始动量 v v v
  2. 输出:最终值参数 θ {\theta} θ
  3. while stopping criterion not met:
  4.     Sample a batch of m examples { x 1 , . . . , x m } \{x^1, ..., x^m\} {x1,...,xm},correspongding label y i y^i yi
  5.     Apply interim update: θ ~ ← θ + α v \widetilde \theta \leftarrow \theta+\alpha v θ θ+αv
  6.   Compute gradient(at interm point): g ← 1 m Δ θ ~ ∑ i L ( f ( x i , θ ~ ) , y i ) g\leftarrow\frac{1}{m}\Delta_{\widetilde \theta}\sum_i L(f(x^i, \widetilde\theta),y^i) gm1Δθ iL(f(xi,θ ),yi)
  7.     Computer velocity update: v ← α v − ϵ g v \leftarrow \alpha v-\epsilon g vαvϵg
  8.     Apply update: θ ← θ + v \theta \leftarrow \theta+v θθ+v

注意:
Nesterov Momentum同Momentum相比多个"apply interim update: θ ~ ← θ + α v \widetilde \theta \leftarrow \theta+\alpha v θ θ+αv "这一步

1.4 AdaGrad

通常,我们在每一次更新参数时,对于所有的参数使用相同的学习率。而AdaGrad算法的思想是:每一次更新参数时(一次迭代),不同的参数使用不同的学习率。AdaGrad 的公式为
G t = G t − 1 + g t 2 G_t = G_{t-1}+g_t^2 Gt=Gt1+gt2

θ t + 1 = θ t − α G t + ϵ ⋅ g t \theta_{t+1}=\theta_t-\frac{\alpha}{\sqrt{G_t}+\epsilon}\cdot g_t θt+1=θtGt +ϵαgt
其中 ϵ \epsilon ϵ一般默认取 1 0 − 7 10^{-7} 107,学习率一般取值0.01

  • 优点:
    对于梯度较大的参数, G t G_t Gt相对较大,则 α G t + ϵ \frac{\alpha}{\sqrt{G_t}+\epsilon} Gt +ϵα较小。而相对于梯度较小的参数,则效果相反。这样就可以使得参数在平缓的地方下降的稍微快些,不至于在原位徘徊。
  • 缺点:
    由于是累加梯度的平方,到后面 G t G_t Gt的值会比较大,导致梯度 α G t + ϵ → 0 \frac{\alpha}{\sqrt{G_t}+\epsilon}\rightarrow 0 Gt +ϵα0,导致梯度消失

1.5 Adadelta

为了克服Adagrad的缺点进行的改进

  • 将累积梯度改为衰减梯度和,对历史梯度信息乘以衰减项 ρ \rho ρ
    E [ g 2 ] t = ρ ⋅ E [ g 2 ] t + ( 1 − ρ ) ⋅ g t 2 E[g^2]_t = \rho \cdot E[g^2]_t + (1-\rho)\cdot g^2_t E[g2]t=ρE[g2]t+(1ρ)gt2

  • 解决需要人工设置学习的问题,这里借鉴牛顿法的思想,即 Δ x = H t − 1 g t \Delta x = H^{-1}_t g_t Δx=Ht1gt
    我们构造 Δ x \Delta x Δx的近似,来模拟得到 H − 1 H^{-1} H1的方法

Δ x t = − E [ Δ x 2 ] t − 1 + ϵ E [ g 2 ] t + ϵ ⋅ g t \Delta x_t = - \frac{\sqrt{E[\Delta x^2]_{t-1} + \epsilon}}{\sqrt{E[g^2]_t + \epsilon}} \cdot g_t Δxt=E[g2]t+ϵ E[Δx2]t1+ϵ gt

  • Δ x t 2 \Delta x_t ^2 Δxt2的更新公式
    E [ Δ x 2 ] t = ρ ⋅ E [ Δ x 2 ] t − 1 + ( 1 − ρ ) ⋅ Δ x t 2 E[\Delta x^2]_t = \rho \cdot E[\Delta x^2]_{t-1}+(1-\rho)\cdot \Delta x_t^2 E[Δx2]t=ρE[Δx2]t1+(1ρ)Δxt2

  • 对x得到更新为
    x t + 1 = x t + Δ x t x_{t+1} = x_t + \Delta x_t xt+1=xt+Δxt

1.6 RMSprop

其也是为了解决Adagrad中梯度消失的问题,与Adadelta相比,仅仅采用了对 E [ g 2 ] E[g^2] E[g2]采样指数衰减平均进行更新

1.7 Adam( Adaptive Moment Estimation)

Adam实际上是把momentum和RMSprop结合起来的一种算法,分为一阶和二阶动量

具体更新算法:

  1. while θ t \theta_t θt not converged:
  2. t ← t + 1 t \leftarrow t+1 tt+1
  3.     g t ← Δ θ f t ( θ t − 1 ) g_t \leftarrow \Delta_{\theta}f_t(\theta_{t-1}) gtΔθft(θt1)
  4.    m t ← β 1 ⋅ m t − 1 + ( 1 − β 1 ) ⋅ g t m_t \leftarrow \beta_1 \cdot m_{t-1}+(1-\beta_1)\cdot g_t mtβ1mt1+(1β1)gt (first moment estimate)
  5.    v t ← β 2 ⋅ v t − 1 + ( 1 − β 2 ) ⋅ g t 2 v_t \leftarrow \beta_2 \cdot v_{t-1}+(1-\beta_2)\cdot g_t^2 vtβ2vt1+(1β2)gt2 (second moment estimate)
  6.    m ^ t ← m t / ( 1 − β 1 t ) \hat m_t \leftarrow m_t/(1-\beta_1^t) m^tmt/(1β1t)
  7.    v ^ t ← v t / ( 1 − β 2 t ) \hat v_t \leftarrow v_t/(1-\beta_2^t) v^tvt/(1β2t)
  8.    θ t ← θ t − 1 − α ⋅ m ^ t / ( v ^ t + ϵ ) \theta_t \leftarrow \theta_{t-1}-\alpha \cdot \hat m_t/(\sqrt{\hat v_t} + \epsilon) θtθt1αm^t/(v^t +ϵ) (更新参数)
  9. return θ t \theta_t θt

1.8 各方法效果图对比

总的来说,RMSprop是Adagrad的扩展形式,用于处理在Adagrad中急速递减的学习率。RMSprop与Adadelta相同,所不同的是Adadelta在更新规则中使用参数的均方根进行更新。

最后,Adam是将偏差校正和动量加入到RMSprop中。在这样的情况下,RMSprop、Adadelta和Adam是很相似的算法并且在相似的环境中性能都不错。Kingma等人[9]指出在优化后期由于梯度变得越来越稀疏,偏差校正能够帮助Adam微弱地胜过RMSprop。综合看来,Adam可能是最佳的选择

1.9 其他提升方法

  • shuffling
    对数据集的洗牌
  • curriculum learning
    按照某个有意义的顺序排列会提高模型的性能和SGD的收敛性
  • batch normalization
    为了便于学习,我们通常用0均值和单位方差初始化我们的参数的初始值来归一化
  • early stopping
  • Gradient noise
    在每个梯度更新中增加满足高斯分布 N ( 0 , σ t 2 ) N(0, \sigma_t^2) N(0,σt2)的噪音: g t , i = g t , i + N ( 0 , σ t 2 ) g_{t,i} = g_{t,i} + N(0, \sigma_t^2) gt,i=gt,i+N(0,σt2),高斯分布的方差进行
    退火 σ t 2 = η ( 1 + t ) γ \sigma_t^2=\frac{\eta}{(1+t)^\gamma} σt2=(1+t)γη,该方法增加了噪音,使得网络对不好的初始化更加鲁棒,同时对深层的和复杂的网络的训练特别有益。他们猜测增加的噪音使得模型更优机会逃离当前的局部最优点,以发现新的局部最优点,这在更深层的模型中更加常见。

2.牛顿法和拟牛顿法

2.1 牛顿法(Newton’s method)

  • 牛顿法也是求解无约束最优化问题的常用方法,有收敛速度快的优点。它是一种迭代算法,每一步都需要求解目标函数的海塞矩阵的逆矩阵,计算比较复杂。

目标函数:

m i n x ∈ R n f ( x ) = m i n x ∈ R n f ( x k ) + f ′ ( x k ) ( x − x k ) + 1 2 ( x − x k ) T f ′ ′ ( x k ) ( x − x k ) \begin{aligned} &\underset{x\in R^n}{min}f(x) \\ = &\underset{x\in R^n}{min} f(x^k) + f'(x^k)(x-x^k) + \frac{1}{2}(x-x^k)^Tf''(x^k)(x-x^k) \end{aligned} =xRnminf(x)xRnminf(xk)+f(xk)(xxk)+21(xxk)Tf(xk)(xxk)
其中 f ′ ( x k ) = ∂ f ∂ x k f'(x^k) = \frac{\partial f}{\partial x_k} f(xk)=xkf f ′ ′ ( x k ) = [ ∂ 2 f ∂ x i ∂ x j ] n ∗ n f''(x^k)=[\frac{\partial^2f}{\partial x_i\partial x_j}]_{n*n} f(xk)=[xixj2f]nn
要想取得上式子最小值,将其导数为0,即
Δ f ( x ) = 0 ⇒ Δ f ( x ) = f ′ ( x k ) + f ′ ′ ( x ) ( x − x k ) ⇒ x k + 1 = x k − f ′ ( x k ) f ′ ′ ( x k + 1 ) \begin{aligned} & \Delta f(x) = 0 \\ \Rightarrow & \Delta f(x) = f'(x^k) + f''(x)(x-x^k) \\ \Rightarrow & x^{k+1} = x^k - \frac{f'(x^k)}{f''(x^{k+1})} \end{aligned} Δf(x)=0Δf(x)=f(xk)+f(x)(xxk)xk+1=xkf(xk+1)f(xk)

牛顿法也可用于方程求解,具体讲函数一阶展开:
f ( x ) = f ( x k ) + f ′ ( x k ) ( x − x k ) f(x) = f(x^k) + f'(x^k)(x-x^k) f(x)=f(xk)+f(xk)(xxk)
令其为0
x k + 1 = x k − f ( x k ) f ′ ( x k ) x^{k+1} = x^k - \frac{f(x^k)}{f'(x^k)} xk+1=xkf(xk)f(xk)
该方法严格称为:Guass-Newton method(高斯牛顿法)

牛顿法的优缺点总结:

  • 优点:二阶收敛,收敛速度快;
  • 缺点:牛顿法是一种迭代算法,每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算比较复杂。

2.2 拟牛顿法(Quasi-Newton Methods)

  • 牛顿法的迭代中,海塞矩阵的逆矩阵求解比较复杂,使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的复杂度,即用一个迭代的矩阵 G k G_k Gk来不断地 近似代替 海塞矩阵的逆矩阵 H k − 1 H_k^{-1} Hk1,这里直接给出结果,有两种近似算法,分别是DFP和BFGS算法。

DFP算法

  1. 先初始化一个正定对称矩阵 G 0 G_0 G0,可以证明,迭代过程中每个矩阵 B k B_k Bk都是正定的
  2. 利用公式
    G k + 1 = G k + δ k δ k T δ k T y k − G k y k y k T G k y k T G k y k G_{k+1} = G_k + \frac{\delta_k\delta_k^T}{\delta_k^Ty_k}-\frac{G_ky_ky_k^TG_k}{y_k^TG_ky_k} Gk+1=Gk+δkTykδkδkTykTGkykGkykykTGk更新 G k G_k Gk
  3. 一维搜索:求 λ k \lambda_k λk使得
    f ( x k + λ k ∗ ( − G k g k ) ) = m i n λ ≥ 0 f ( x k + λ ∗ ( − G k g k ) ) f(x^k+\lambda_k*(-G_kg_k))= \underset{\lambda \ge0}{min}f(x^k+\lambda*(-G_kg_k)) f(xk+λk(Gkgk))=λ0minf(xk+λ(Gkgk))
  4. 更新 x k + 1 = x k + λ k ∗ ( − G k g k ) x^{k+1}=x^k+\lambda_k*(-G_kg_k) xk+1=xk+λk(Gkgk)
  5. 计算 g k + 1 = g ( x k + 1 ) g_{k+1}=g(x^{k+1}) gk+1=g(xk+1),若 ∥ g k + 1 ∥ < ϵ \left \|g_{k+1} \right \| < \epsilon gk+1<ϵ,则停止计算,得到近似解 x ∗ = x k + 1 x^*=x^{k+1} x=xk+1;否则,继续更新 G k G_k Gk迭代
  • 另一种是BFGS算法,其实最流行的逆牛顿法,DFP采用的是 G k G_k Gk逼近海塞矩阵的逆矩阵 H − 1 H^{-1} H1,BFGS采用的是 B k B_k Bk逼近海塞矩阵 H H H,

BFGS算法

  1. 初始化正定对称矩阵 B 0 B_0 B0, 可以证明,迭代过程中每个矩阵 B k B_k Bk都是正定的
  2. 利用公式
    B k + 1 = B k + y k y k T y k T δ k − B k δ k δ k T B k δ k T B k δ k B_{k+1} = B_k +\frac{y_ky_k^T}{y_k^T\delta_k}- \frac{B_k\delta_k\delta_k^T B_k}{\delta_k^TB_k\delta_k} Bk+1=Bk+ykTδkykykTδkTBkδkBkδkδkTBk
  3. 一维搜索:求 λ k \lambda_k λk使得
    f ( x k + λ k ∗ ( − g k / B k ) ) = m i n λ ≥ 0 f ( x k + λ ∗ ( − g k / B k ) ) f(x^k+\lambda_k*(-g_k/B_k))=\underset{\lambda \ge0}{min}f(x^k+\lambda*(-g_k/B_k)) f(xk+λk(gk/Bk))=λ0minf(xk+λ(gk/Bk))
  4. 更新 x k + 1 = x k + λ k ∗ ( − g k / B k ) x^{k+1}=x^k+\lambda_k*(-g_k/B_k) xk+1=xk+λk(gk/Bk)
  5. 计算 g k + 1 = g ( x k + 1 ) g_{k+1}=g(x^{k+1}) gk+1=g(xk+1),若 ∥ g k + 1 ∥ < ϵ \left \|g_{k+1} \right \| < \epsilon gk+1<ϵ,则停止计算,得到近似解 x ∗ = x k + 1 x^*=x^{k+1} x=xk+1;否则,继续更新 G k G_k Gk迭代

注意:
上面计算 1 / B k 1/B_k 1/Bk并不需要直接求逆:
利用Sherman-Morrison 公式:
对于任意非奇异方阵A, u , v ∈ R n u,v\in R^n u,vRn, 若 1 + v T A − 1 u ≠ 0 1+v^TA^{-1}u\neq 0 1+vTA1u=0,则:
( A + u v T ) − 1 = A − 1 − ( A − 1 u ) ( v T A − 1 ) 1 + v T A − 1 u (A+uv^T)^{-1} = A^{-1}-\frac{(A^{-1}u)(v^TA^{-1})}{1+v^TA^{-1}u} (A+uvT)1=A11+vTA1u(A1u)(vTA1)
该公式描述了在矩阵A发生某种变化时,如何利用之前求好的逆,求新的逆。对迭代公式引入两次 Sherman-Morrison 公式就能得到:
B k + 1 − 1 = ( I n − δ k y k T δ k T y k ) B k − 1 ( I n − y k δ k T δ k T y k ) + δ k δ k T δ k T y k B^{-1}_{k+1}=\left (I_n-\frac{\delta_k y_k^T}{\delta_k^T y_k}\right )B_{k}^{-1}\left (I_n-\frac{y_k \delta_k^T}{\delta_k^T y_k}\right )+\frac{\delta_k\delta_k^T}{\delta_k^T y_k} Bk+11=(InδkTykδkykT)Bk1(InδkTykykδkT)+δkTykδkδkT

通过测量梯度的变化,构造一个目标函数的模型使之足以产生超线性收敛性。这类方法大大优于最速下降法,尤其对于困难的问题。另外,因为拟牛顿法不需要二阶导数的信息,所以有时比牛顿法更为有效。

3. 共轭梯度法(Conjugate Gradient)

共轭梯度法是介于最速下降法与牛顿法之间的一个方法,它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺点,又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一。

虽然梯度下降法的每一步都是朝着局部最优的方向的,但它在不同的迭代轮数中会选择非常近似的方向,说明这个方向的误差并没通过一次更新方向和步长更新完,在这个方向上还存在误差,因此参数更新的轨迹是锯齿状。

共轭梯度法是共轭方向法的一种,它在最速下降法的基础上对它进行了改良,初始点的下降方向仍是负梯度方向,但后面的迭代方向不再是该点的负梯度方向了,后面的迭代方向是该点的负梯度方向和前一次迭代方向形成的凸锥中的一个方向,这样有效地避免了“锯齿”现象。

由于每次将一个方向优化到了极小,后面的优化过程将不再影响之前优化方向上的极小值,所以理论上对N维问题求极小只用对N个方向都求出极小就行了。

下图为共轭梯度法和梯度下降法搜索最优解的路径对比示意图:

注:绿色为梯度下降法,红色代表共轭梯度法

算法过程

由上我们知道,共轭梯度同梯度下降一样,也是只利用一阶导数信息,只是后续迭代中 优化的方向和步长有所不同
典型的共轭梯度下降是为了解决为解二次规划和线性方程组问题设计的。即待优化问题定义为
m i n x f ( x ) = 1 2 x T A x − b T x \underset{x}{min}f(x)=\frac{1}{2}x^TAx-b^Tx xminf(x)=21xTAxbTx
其中x为待求解,A为半正定矩阵,b为已知变量。

  • 对于优化方向

第一次优化方向为初始梯度方向
p 1 = r 1 = b − A x 1 p_1=r_1=b-Ax_1 p1=r1=bAx1
每一次优化方向与之前的优化方向正交,采样Gram-Schmidt方法进行向量正交化,更新优化梯度方向:

p k = r k − ∑ i < k p i T A r k p i T A p i p_k = r_k-\sum_{i< k}\frac{p_i^TAr_k}{p_i^TAp_i} pk=rki<kpiTApipiTArk

  • 对于优化步长

f ( x k + 1 ) = f ( x k + α k p k ) = g ( α k ) f(x_{k+1}) = f(x_k+\alpha_kp_k)=g(\alpha_k) f(xk+1)=f(xk+αkpk)=g(αk)
α k \alpha_k αk求导并令其导数为0,可得
α k = p k T r k p k T A p k \alpha_k=\frac{p_k^Tr_k}{p_k^TAp_k} αk=pkTApkpkTrk

  • 伪代码

r 0 = b − A x 0 p 0 = r 0 k = 0 w h i l e    T r u e :              α k = r k T r k p k T A p k              x k + 1 = x k + α k p k              r k + 1 = r k − α k A p k              i f    r k + 1 < ϵ :                    b r e a k              β k + 1 = r k + 1 T r k + 1 r k T r k              p k + 1 = r k + 1 + β k p k              k = k + 1 r e t u r n    x k + 1 \begin{aligned} & r_0=b-Ax_0 \\ & p_0 = r_0 \\ & k=0\\ & while \;True:\\ & \; \; \; \;\; \; \alpha_k=\frac{r_k^Tr_k}{p_k^TAp_k} \\ & \; \; \; \;\; \; x_{k+1} = x_k + \alpha_kp_k \\ & \; \; \; \;\; \; r_{k+1} = r_k-\alpha_k A p_k \\ & \; \; \; \;\; \;if\; r_{k+1} < \epsilon: \\ & \; \; \; \;\; \; \; \;\; break \\ & \; \; \; \;\; \; \beta_{k+1} = \frac{r_{k+1}^T r_{k+1}}{r_k^Tr_k} \\ & \; \; \; \;\; \; p_{k+1} = r_{k+1} + \beta_kp_k \\ & \; \; \; \;\; \; k = k+1 \\ & return\; x_{k+1} \end{aligned} r0=bAx0p0=r0k=0whileTrue:αk=pkTApkrkTrkxk+1=xk+αkpkrk+1=rkαkApkifrk+1<ϵ:breakβk+1=rkTrkrk+1Trk+1pk+1=rk+1+βkpkk=k+1returnxk+1

  • 缺点
    共轭梯度法不仅没有随机性,而且它因为每一每一步必须要做line search保证单调性,这使得它几乎必然只会收敛到离初始点最近的局部解甚至是鞍点

4. 其他

4.1 Lasso (L1)正则化求解

其正则项目是绝对值,需要使用到subgradient,本质也是使用梯度下降法求解,但分区间操作:

λ ∂ ∑ i = 1 n ∣ w j ∣ ∂ w k = { − λ w k < 0 [ − λ , λ ] w k = 0 λ w k > 0 \lambda \frac{\partial \sum_{i=1}^n|w_j|}{\partial w_k} = \begin{cases} -\lambda & w_k <0 \\ [-\lambda, \lambda] & w_k = 0 \\ \lambda & w_k > 0 \end{cases} λwki=1nwj=λ[λ,λ]λwk<0wk=0wk>0

令偏导数为0得到
w j = { g ( w − j ) i f g ( w − j ) < λ 2 0 i f − λ 2 ≤ g ( w − j ) ≤ λ 2 g ( w − j ) − λ 2 i f g ( w − j ) > λ 2 w_j = \begin{cases} g(w_{-j}) & if g(w_{-j})<\frac{\lambda}{2} \\ 0 & if -\frac{\lambda}{2} \leq g(w_{-j}) \leq \frac{\lambda}{2}\\ g(w_{-j}) - \frac{\lambda}{2} & if g(w_{-j}) > \frac{\lambda}{2} \end{cases} wj=g(wj)0g(wj)2λifg(wj)<2λif2λg(wj)2λifg(wj)>2λ
其中, g ( w − j ) g(w_{-j}) g(wj)代表除去第j个变量外,实际值与预测值直接的差,如果这个值很少,代表变量j能够通过设置一个较小的值从等式中移除

4.2 Ridge (L2)正则化求解

可直接通过求导得到即:

w j t + 1 = ( 1 − 2 λ η ) w j t + 2 η ∑ i = 1 N x i j { y i − ∑ k = 0 M w k ⋅ x i k } w_j^{t+1} = (1-2\lambda \eta)w_j^t + 2\eta \sum \limits_{i=1}^N x_{ij}\{y_i-\sum\limits_{k=0}^M w_k \cdot x_{ik}\} wjt+1=(12λη)wjt+2ηi=1Nxij{yik=0Mwkxik}
看出第二部分和简单的线性回归类似。ridge回归可等价于首先以一个因子 ( 1 − 2 λ η ) (1-2\lambda \eta) (12λη)减少权重,然后再应用简单的回归更新规则。

Ref:

  1. https://www.cnblogs.com/shixiangwan/p/7532830.html
  2. https://blog.youkuaiyun.com/songbinxu/article/details/79677948
  3. https://blog.youkuaiyun.com/weixin_37895339/article/details/84640137
  4. https://blog.youkuaiyun.com/u012328159/article/details/80311892
  5. https://ruder.io/optimizing-gradient-descent/index.html
  6. https://blog.youkuaiyun.com/google19890102/article/details/69942970
  7. https://www.analyticsvidhya.com/blog/2016/01/complete-tutorial-ridge-lasso-regression-python/

欢迎关注公众号:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值