机器学习中的优化方法:原理、应用与挑战
一、高阶优化方法
1.1 高斯 - 牛顿法
高斯 - 牛顿法(Gauss - Newton method,GNM)是解决非线性最小二乘优化问题的传统方法。它的目标是最小化目标函数为平方和的问题。该方法的优点之一是仅使用一阶信息来构建海森矩阵(Hessian)的近似,并且能保证近似的海森矩阵为半正定,不过它忽略了参数元素之间的二阶相互作用,可能导致曲率信息的丢失。
具体操作步骤如下:
1. 定义目标函数 :
目标函数为 ( |f(\mathbf{q} k, \mathbf{x}_k)|_2^2=\sum {i = 1}^{m}f_i(\mathbf{q} k, \mathbf{x}_k)^2 )
2. 线性化 :
在 ( \mathbf{q}_k ) 附近对 ( f(\mathbf{q}, \mathbf{x}) ) 进行线性化,得到 ( f(\mathbf{q}, \mathbf{x})\approx f(\mathbf{q}_k, \mathbf{x}_k)+\nabla {\mathbf{q}}f(\mathbf{q} k, \mathbf{x}_k)(\mathbf{q}-\mathbf{q}_k) )
3. 代入最小二乘问题 :
将上述线性近似代入最小二乘问题,得到 ( |f(\mathbf{q}_k, \mathbf{x}_k)|_2^2\approx |f(\mathbf{q}_k, \mathbf{
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



