本文对梯度下降算法及其优化进行小结,本文读者假定读者对机器学习基本理论及梯度下降有一定的了解。
## 一.涉及的算法
1. 原始梯度下降
2. Batch gradient descent
3. Stocastic gradint descent
4. mini-batch gradient descent
5. Momentum
6. Nesterov
7. Adagrad
8. Adadelta
9. RMSprop
10. Adam
11. AdaMax
12. Nadam
13. 其他优化SGD的策略