79、机器学习中的优化方法:原理、应用与挑战

机器学习中的优化方法:原理、应用与挑战

一、高阶优化方法

1.1 高斯 - 牛顿法

高斯 - 牛顿法(Gauss - Newton method,GNM)是解决非线性最小二乘优化问题的传统方法。它的目标是最小化目标函数为平方和的问题。该方法的优点之一是仅使用一阶信息来构建海森矩阵(Hessian)的近似,并且能保证近似的海森矩阵为半正定,不过它忽略了参数元素之间的二阶相互作用,可能导致曲率信息的丢失。

具体操作步骤如下:
1. 定义目标函数
目标函数为 ( |f(\mathbf{q} k, \mathbf{x}_k)|_2^2=\sum {i = 1}^{m}f_i(\mathbf{q} k, \mathbf{x}_k)^2 )
2. 线性化
在 ( \mathbf{q}_k ) 附近对 ( f(\mathbf{q}, \mathbf{x}) ) 进行线性化,得到 ( f(\mathbf{q}, \mathbf{x})\approx f(\mathbf{q}_k, \mathbf{x}_k)+\nabla
{\mathbf{q}}f(\mathbf{q} k, \mathbf{x}_k)(\mathbf{q}-\mathbf{q}_k) )
3. 代入最小二乘问题
将上述线性近似代入最小二乘问题,得到 ( |f(\mathbf{q}_k, \mathbf{x}_k)|_2^2\approx |f(\mathbf{q}_k, \mathbf{

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值