加速随机牛顿法与随机子模最大化的高效策略
1. 加速随机牛顿法的核心算法
在优化问题中,我们常常需要求解目标函数的最优解。对于目标函数 (f(x)),牛顿法是一种常用的迭代优化方法,它通过计算目标函数的Hessian矩阵的逆来更新迭代点。然而,对于大规模问题,计算Hessian矩阵及其逆的代价非常高。为了解决这个问题,我们提出了一种基于Chebyshev估计器的加速随机牛顿法。
首先,我们有如下的理论基础:
设 (A) 是对称正定矩阵,(\alpha) 和 (\beta) 分别是 (A) 的最小和最大特征值。对于给定的 (\hat{X} 0),我们可以通过递归方式计算 (\hat{X}_k):
(\begin{cases}
\hat{X}_1 = (I - \nu A) \hat{X}_0 + \nu I \
\hat{X} {k + 1} = \rho_k [(I - \nu A) \hat{X} k + \nu I] + (1 - \rho_k) \hat{X} {k - 1}, \quad k = 1, 2, \cdots
\end{cases})
其中 (\nu = \frac{2}{\alpha + \beta}),(\rho_1 = 2),(\rho_k = \left(1 - \frac{1}{4\xi^2}\right) \rho_{k - 1}^{-1}),(\xi = \frac{\beta + \alpha}{\beta - \alpha})。
如果我们将 (A) 设为Hessian矩阵,那么 (\hat{X}_k) 可以用来近似Hessian矩阵的逆。这
超级会员免费看
订阅专栏 解锁全文
12

被折叠的 条评论
为什么被折叠?



