11、深度学习中寻找函数最小值的算法解析

深度学习中寻找函数最小值的算法解析

在深度学习领域,寻找函数的全局最小值是一个核心任务,它对于优化模型参数、提高模型性能至关重要。本文将介绍几种常见的寻找函数最小值的算法,包括Adam算法的变种AdaMax、模拟退火算法、提高分辨率方法以及Hessian方法,并深入探讨它们的原理和应用。

1. Adam算法及AdaMax变种

Adam算法是一种常用的优化算法,它结合了动量法和自适应学习率的思想。通过应用期望算子并假设一阶和二阶矩是平稳的,可以得到以下公式:
- (E[m(t)] = (1 - \beta_1) \sum_{i=1}^{t} \beta_1^{t - i} E[g_i] = (1 - \beta_1^t)E[g_t])
- (E[v(t)] = (1 - \beta_2) \sum_{i=1}^{t} \beta_2^{t - i} E[(g_i)^2] = (1 - \beta_2^t)E[(g_t)^2])

为了修正偏差,得到偏差修正后的矩:
- (\hat{m}(t) = m(t)/(1 - \beta_1^t))
- (\hat{v}(t) = v(t)/(1 - \beta_2^t))

最终的递归公式为:
(x(t + 1) = x(t) - \eta \frac{\hat{m}(t)}{\sqrt{|\hat{v}(t)| + \epsilon}})

其中,(\epsilon > 0) 是一个小的标量,用于防止除零错误。常见的超参数默认设置为 (\eta = 0.001),(\beta_1 = 0.9),(\beta_2 = 0.99),(\epsilon =

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值