优化 (Optimizers)
tf中各种优化类提供了为损失函数计算梯度的方法,其中包含比较经典的优化算法,比如GradientDescent 和Adagrad。
https://blog.youkuaiyun.com/shenxiaoming77/article/details/77169756/
深度学习优化算法解析(Momentum, RMSProp, Adam)
https://blog.youkuaiyun.com/willduan1/article/details/78070086