深度学习之感性理解-优化器

本文深入解析深度学习中各类优化器的工作原理,包括批量梯度下降法(BGD)、随机梯度下降法(SGD)、小批量梯度下降法(MBGD)、Momentum、AdaGrad、Adam和RMSprop,探讨它们在训练过程中的优势与局限。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

梯度下降法

在这里插入图片描述

批量梯度下降法(BGD)

所谓批量,就是一次性把所有样本都进行训练,因为所有的样本一起迭代算一次,所以下降方向相对比较准确,不会有太大的偏移,同时由于样本数太多,可能迭代一次会比较慢。

随机梯度下降法(SGD)

每次只迭代一个样本,速度快,随机偏移比较大,但是总体方向是对的,容易到达局部最优,因为是单个样本训练,并非全部一起训练。

小批量梯度下降法(MBGD)

刚好在BGD 和SGD中间,取一部分训练,既保证了速度,有保证了准确性,是这一种折中的方式

Momentum

可以看做是有惯性的梯度下降法,因为有惯性,所以有时候可以跳出局部最小点。

AdaGrad

是一种能调节学习率的梯度下降算法。

Adam

Momentum和AdaGrad的结合体。

RMSprop

可以缓解AdaGrad的学习率下降太快的问题。

具体还是看图直观
在这里插入图片描述
在这里插入图片描述

好了,今天就到这里了,希望对学习理解有帮助,大神看见勿喷,仅为自己的学习理解,能力有限,请多包涵,图片均来自网络,侵删。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值