机器学习和深度学习 -- 李宏毅(笔记与个人理解)Day 13

Day13 Error surface is rugged……

Tips for training :Adaptive Learning Rate

critical point is not the difficult

image-20240411203156248 image-20240411203302996

image-20240411203539343

image-20240411203702557 image-20240411205450104

Root mean Square --used in Adagrad

image-20240411205707534

这里为啥是前面的g的和而不是直接只除以当前呢?

这种方法的目的是防止学习率在训练过程中快速衰减。如果只用当前的梯度值来更新学习率,那么任何较大的梯度值都可能会导致很大的学习率变化,这可能会使得学习过程不稳定。通过使用所有过去梯度的平方的平均值,我们可以使学习率的变化更加平滑,因为这个值不会因为个别极端的梯度值而发生剧烈波动。

以及这个式子和之前讲的那个正则化是不是一样的呢?image-20240411205922799

啊!!!woc 我发现这两个是差不多的思想啊,你把上面那个正则化的东西用Gradient做出来
gi = 2xw+ ∑ \sum 2w…… 额……好吧完全不一样,但是我又不知道这个会不会对于我的……

废了,乱了;稳一稳哈

  1. 这里为什么不是让这个梯度直接等于0 呢?-- 或许是因为有的loss function 我们无法直接求出来梯度等于0 的w?哦哦 那我就知道了md 吓死,差点以为自己的machine Learning route ending了

image-20240411212536721

image-20240412182923450 image-20240412183150634

RMSProp

因为上一个方法只能解决 不同的 θ \theta θ 时候的学习率,但是由图我们可以知道有时候同一个参数我们也希望起有变化率的不同取值

image-20240412184406452

我怎么没看出来这种思想啊

image-20240412184542398

image-20240412184604578

image-20240412184818805 image-20240412184841137

image-20240412185016576

解决井喷问题

image-20240412185048990

在bert里面需要用到

image-20240412185417436

image-20240412185710165

SUmmary of OPtimization

image-20240412185829595

image-20240412185858252

下节预告:

image-20240412190008721

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值