在阅读文献的时候,看到其中提到“选用了SGD左右优化器算法”,然后找到了这篇详尽地解释了各种优化器算法地文章:
https://www.cnblogs.com/guoyaohua/p/8542554.html
文中提到的SGD指随机梯度下降法,每次迭代只使用一组训练数据,这样每次迭代不一定都朝着收敛方向去,但总体上是收敛的。
【算法笔记】深度学习中的优化器Optimizer算法(BGD,SGD,mBGD......)
最新推荐文章于 2025-10-23 10:06:09 发布
本文深入探讨了SGD(随机梯度下降法)这一优化器算法。SGD在每次迭代中仅使用一组训练数据,虽然单次迭代可能不朝向收敛,但整体趋势是向收敛方向发展。这一特性使其成为机器学习和深度学习中常用的优化算法。
8760

被折叠的 条评论
为什么被折叠?



