AdamOptimizer是TensorFlow中实现Adam算法的优化器。Adam即Adaptive Moment Estimation(自适应矩估计),是一个寻找全局最优点的优化算法,引入了二次梯度校正。Adam 算法相对于其它种类算法有一定的优越性,是比较常用的算法之一。
一、算法流程

初始化:

更新规则:

二、 参数定义
__init__(
learning_rate=0.001,
beta1=0.9,
beta2=0.999,
epsilon=1e-08,
use_locking=False,
name='Adam'
)
参数含义:
learning_rate: A Tensor or a floating point value. (学习率)beta1: A float value or a constant float tensor. (一阶矩估计

最低0.47元/天 解锁文章
933

被折叠的 条评论
为什么被折叠?



