GradientDescentOptimizer
AdagradOptimizer
AdagradDAOptimizer
MomentumOptimizer
AdamOptimizer
FtrlOptimizer
AdagradOptimizer
AdagradDAOptimizer
MomentumOptimizer
AdamOptimizer
FtrlOptimizer
RMSPropOptimizer
主要有以上几种
用法:
tf.GradientDescentOptimizer(learning_rate)
一般在上面这个函数的后面还会加一个最小化代价函数,构成深度学习中的训练对象
tf.GradientDescentOptimizer(learning_rate).minimize(Loss)
其他的函数用法很类似,只是里面的参数有些不同
本文介绍了深度学习中常用的几种优化器,包括GradientDescentOptimizer、AdagradOptimizer、MomentumOptimizer、AdamOptimizer等,并提供了基本的使用方法示例。
2624

被折叠的 条评论
为什么被折叠?



