目录
如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~
花书+吴恩达深度学习(六)优化方法之 Mini-batch(SGD, MBGD, BGD)
花书+吴恩达深度学习(七)优化方法之基本算法(Momentum, Nesterov, AdaGrad, RMSProp, Adam)
0. 前言
在之前,通常使用梯度下降法进行模型训练,除此之外,还有许多二阶的近似方法。
本篇主要是简单介绍总结这几种方法,不进行深入。
假设代价函数表示为:
1. 牛顿法
牛顿法是基于二阶泰勒级数展开在某点 附近来近似