牛客题解 | 实现Adam优化算法

题目

题目链接

Adam优化算法是一种自适应学习率的优化算法,其计算步骤如下:

  1. 初始化参数
    m 0 = 0 , v 0 = 0 , t = 0 m_0 = 0, \quad v_0 = 0, \quad t = 0 m0=0,v0=0,t=0
  2. 计算梯度
    g t = ∇ f ( x t ) g_t = \nabla f(x_t) gt=f(xt)
  3. 更新动量
    m t = β 1 m t − 1 + ( 1 − β 1 ) g t m t = m t / ( 1 − β 1 t ) m_t = \beta_1 m_{t-1} + (1 - \beta_1) g_t m_t = m_t / (1 - \beta_1^t) mt
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值