梯度下降、牛顿法、高斯牛顿&L-M算法比较

本文对比了四种优化算法:梯度下降法、牛顿法、高斯-牛顿法和L-M算法。一阶方法的梯度下降法虽然简单,但收敛速度较慢;二阶方法如牛顿法收敛速度快,但计算Hessian矩阵复杂;高斯-牛顿法简化了计算,但可能在某些情况下收敛变慢;L-M算法结合了梯度下降和高斯-牛顿的优点,通过调整λ参数提高了鲁棒性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文梳理一下常见的几种优化算法:梯度下降法,牛顿法、高斯-牛顿法和L-M算法,优化算法根据阶次可以分为一阶方法(梯度下降法),和二阶方法(牛顿法等等),不同优化算法的收敛速度,鲁棒性都有所不同。一般来讲,二阶方法要比一阶方法有更快的收敛速度。

梯度下降法

梯度下降法是一种简洁直观的寻找极小值的迭代算法,它总是沿着负梯度方向进行搜索,直到梯度为0才收敛。它的迭代公式为:
x k + 1 = x k − α f ′ ( x k ) \bm x_{k+1} = \bm x_k - \alpha f'(\bm x_k) xk+1=xkαf(xk)
其中 α \alpha α为搜索步长,是一个需要人为给定的值,当然你也可以设计一种自适应的给定 α \alpha α的算法。 α \alpha α的选择会影响梯度下降法的收敛速度。下图是从(1,1)出发在 f ( x ) = x 2 f(x)=x^2 f(x)=x2上寻找最小值点的搜索路径。

左图和右图分别为 α = 0.3 \alpha =0.3 α=0.3 α = 0.7 \alpha=0.7 α=0.7时的效果。梯度下降法是一阶方法,其收敛速度通常不如二阶方法,如牛顿法。

牛顿法

所有二阶方法都源自二阶泰勒展开:
f ( x + δ x ) ≈ f ( x ) + g ⊤ δ x + 1 2 δ x ⊤ H δ x f(\bm x + \delta\bm x) \approx f(\bm x)+\bm g^\top\delta\bm x+\dfrac{1}{2}\delta\bm x^\top\bm H\delta\bm x f(x+δx)f(x)+gδx+21δxHδx
其中 g = d f d x ( x ) \bm g = \frac{df}{d\bm x}(\bm x) g=dxdf(x) H = d f 2 d x 2 ( x ) \bm H = \frac{df^2}{d\bm x^2}(\bm x) H=dx

### 回答1: 牛顿法高斯牛顿法和L-M法都是数值优化方法,用于求解非线性问题的最优解。它们的推导如下: 1. 牛顿法(Newton's Method): 牛顿法利用一阶导数和二阶导数信息来逼近目标函数的局部极小值点。 首先,我们假设目标函数是二阶可微的。对于目标函数f(x),牛顿法构造了一个局部线性近似函数: g(x) = f(x^{(k)}) + \nabla f(x^{(k)})^T (x - x^{(k)}) + (1/2) (x - x^{(k)})^T H(x^{(k)})(x - x^{(k)}) 其中,x^{(k)}为第k次迭代的近似解,\nabla f(x^{(k)})是目标函数f(x)在x^{(k)}处的梯度,H(x^{(k)})是目标函数f(x)在x^{(k)}处的Hessian矩阵。 然后,将g(x)最小化,求解出x的更新值x^{(k+1)}: x^{(k+1)} = x^{(k)} - [H(x^{(k)})]^{-1} \nabla f(x^{(k)}) 通过迭代计算,最终得到目标函数的最优解。 2. 高斯牛顿法(Gauss-Newton Method): 高斯牛顿法用于求解非线性最小二乘问题,即最小化目标函数f(x) = (1/2) \|F(x)\|^2。 假设F(x)为目标函数对应的残差向量,其雅可比矩阵为J(x),即F(x) = J(x) Δx。高斯牛顿法在每次迭代中近似将目标函数F(x)用线性形式进行近似: F(x) ≈ F(x^{(k)}) + J(x^{(k)}) Δx 然后,通过最小化近似的目标函数,求解出Δx的更新值: Δx = -[J(x^{(k)})^T J(x^{(k)})]^{-1} J(x^{(k)})^T F(x^{(k)}) 通过迭代计算,得到更新后的x值。该方法主要应用于非线性最小二乘问题的求解。 3. L-M法(Levenberg-Marquardt Method): L-M法综合了牛顿法高斯牛顿法的优点,用于求解非线性最小二乘问题。 定义目标函数F(x)和雅可比矩阵J(x),则非线性最小二乘问题可以表示为最小化目标函数E(x) = (1/2) \|F(x)\|^2。 L-M法的核心思想在于考虑残差和自由度之间的权衡,引入一个正则化因子λ,通过调整λ的值来平衡牛顿法高斯牛顿法。 迭代计算的更新值为: Δx = -[J(x^{(k)})^T J(x^{(k)}) + λ I]^{-1} J(x^{(k)})^T F(x^{(k)}) 根据更新值计算x的更新值,并不断调整λ的值,直到满足停止迭代的条件,得到最优解。 这三个方法都是经典的数值优化算法,用于求解非线性问题的最优解。根据不同的问题特性,选择合适的方法可以提高优化效率和准确性。 ### 回答2: 牛顿法高斯牛顿法和L-M方法是常用的优化算法,它们可以求解非线性最小二乘问题。 首先,我们介绍牛顿法。给定一个非线性函数F(x),我们要求解使F(x)=0的x值。牛顿法的思想是利用一阶泰勒展开来逼近非线性函数,从而找到使F(x)=0的解x。具体推导如下: 首先,根据泰勒展开,我们有: F(x+Δx) ≈ F(x) + J(x)Δx 其中,Δx是x的增量,J(x)是F(x)的雅可比矩阵。 将F(x+Δx)置为0,我们可以得到下面的方程: F(x) + J(x)Δx = 0 进一步化简,我们可以得到迭代更新公式: x_new = x - [J(x)]⁻¹F(x) 其中,x_new是更新后的x值,[J(x)]⁻¹是雅可比矩阵的逆矩阵。 接下来,我们介绍高斯牛顿法。在非线性最小二乘问题中,我们希望找到使残差平方和最小化的参数。高斯牛顿法是一种迭代方法,通过不断局部线性化来优化参数。具体推导如下: 假设有一个非线性函数y=f(x,θ),其中θ是待求的参数,给定一组数据点(xi,yi),我们希望通过改变参数θ来最小化误差,即最小化残差函数R(θ)的平方和。 首先,我们通过泰勒展开将非线性函数f(x,θ)近似为线性函数h(x,θ): h(x, θ) ≈ f(x, θ) + J(x, θ)δθ 其中,δθ是θ的增量,J(x, θ)是f(x, θ)关于θ的雅可比矩阵。 根据最小二乘法的思想,我们有: R(θ) = Σ(f(xi,θ) - yi)² ≈ Σ(h(xi,θ) - yi)² 通过最小化残差平方和,我们可以得到增量的更新公式: δθ = -(J(x, θ)ᵀJ(x, θ))⁻¹J(x, θ)ᵀR(x, θ) 最后,我们介绍L-M方法(Levenberg-Marquardt Algorithm)。L-M方法是一种将牛顿法梯度下降法相结合的方法,可以更好地处理非线性最小二乘问题。 L-M方法是在高斯牛顿法的基础上,引入一个可调节的参数λ,用于平衡牛顿法梯度下降法。具体推导如下: 首先,我们有牛顿法的迭代更新公式: δθ = -(J(x, θ)ᵀJ(x, θ))⁻¹J(x, θ)ᵀR(x, θ) 然后,我们引入一个参数λ,并定义增量的修正形式: δθ_new = (J(x, θ)ᵀJ(x, θ) + λI)⁻¹J(x, θ)ᵀR(x, θ) 根据修正增量的大小,我们可以判断是否接近最优解。如果修正增量趋于0,说明非线性最小二乘问题已经接近最优解;如果修正增量过大,说明最优解可能在其他方向上。通过不断调整λ,可以实现更好地收敛性和稳定性。 综上所述,牛顿法高斯牛顿法和L-M方法都是求解非线性最小二乘问题的优化算法,在实际应用中都有其独特的优势和适用场景。 ### 回答3: 牛顿法、高斯-牛顿法和L-M法都是数值优化中常用的方法,用于求解非线性最小二乘问题。下面将分别对这三种方法进行详细推导。 1. 牛顿法: 设需要求解的方程为 F(x) = 0,希望找到使得 F(x) 接近零的解 x。牛顿法的思想是用一个线性逼近函数来代替非线性方程 F(x),通过迭代不断降低逼近函数与原方程的差异。 具体推导如下: (1)选择一个初始解 x0,并计算方程 F(x) 在 x0 处的一阶导数 J 和二阶导数 H。 (2)根据牛顿迭代公式进行迭代:x(k+1) = x(k) - H⁻¹ * J,其中 k 表示迭代次数。 (3)不断迭代直到满足终止条件。 2. 高斯-牛顿法(非线性最小二乘法): 高斯-牛顿法用于解决最小二乘问题,即将观测数据拟合到一个非线性模型中,使得模型预测值与实际观测值之间的误差最小。 具体推导如下: (1)设非线性模型为 y = f(x;θ),其中 θ 表示需要优化的参数。 (2)根据最小二乘法的思想,将观测数据与模型预测值之间的差异平方和最小化,得到一个优化目标函数 E(θ)。 (3)使用牛顿法进行迭代优化:θ(k+1) = θ(k) - (JᵀJ)⁻¹Jᵀe,其中 J 是 E(θ) 对θ的一阶导数,e 是观测数据与模型预测值之间的误差向量。 (4)不断迭代直到满足终止条件。 3. L-M法(Levenberg-Marquardt法): L-M法是用于求解非线性最小二乘问题的一个改进的方法,它结合了牛顿法梯度下降法的优点。 具体推导如下: (1)设非线性模型为 y = f(x;θ)。 (2)根据最小二乘法的思想,将观测数据与模型预测值之间的差异平方和最小化,得到一个优化目标函数 E(θ)。 (3)L-M法在牛顿法迭代公式中引入一个参数 λ,得到新的迭代公式:θ(k+1) = θ(k) - (JᵀJ + λI)⁻¹Jᵀe,其中 J 是 E(θ) 对θ的一阶导数,e 是观测数据与模型预测值之间的误差向量,I 是单位矩阵。 (4)如果λ较大时,L-M法类似于梯度下降法;如果λ较小时,L-M法类似于牛顿法。 (5)不断调整 λ 的值,通过迭代直到满足终止条件。 总之,牛顿法、高斯-牛顿法和L-M法都是常用的非线性最小二乘求解方法,它们在数值优化和数据拟合中具有重要的应用价值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值