Datawhale X 李宏毅苹果书AI夏令营—进阶 task2

3.3 自适应学习率

Loss可以根据训练的迭代次数不断下降。

但是在梯度下降法中,Grad,作为有大小和方向两个信息的向量,其大小(范数)却随着迭代次数的增加有小范围的波动。(当然根据图上来看波动越来越小)。那么这可能是由于学习率不恰当的原因而反复横跳。Gradient依然很大,但是loss并没有卡到saddle、critical point等。(反思训练过程)

范数是数学中的一个基本概念,定义在赋范线性空间中,满足非负性、齐次性和三角不等式,常用于度量向量空间中向量的长度或大小。在人工智能领域,范数是一种常见的正则化方法,在模型训练中用于防止过拟合。

Training为什么被卡住了?学习率出了小问题。

看上去把learning grade缩小以后就能解决问题。但是实际上可以看出,当坡度很平滑的时候(右下角图横着走)学习率太小了以后无法收敛,无法让训练前进。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值