李宏毅机器学习笔记六——Gradient Descent

视频来源:

李宏毅机器学习(2017)_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili

https://www.bilibili.com/video/av10590361/?p=6


使用GD的注意事项:

(1)小心的调节Learning  rate



在因材设计不同的learning rate的时候采用的主要方法:

Adagrad:




2.SGD(Stochastic Gradient Dscent)

每次只拿出一个样本例子,进行GD的更新(特征就是快“试图以小见大吗??”)


优点:更快速

3.特征缩放


4.梯度下降法的问题

(1)容易陷入局部最优解

(2)在实际的计算计算中会设置一个比较小的值让其,但位置最高点附近的值有时候也会满足,所以说就是不能根据获得的值的大小判断具体的矩离最优解的远近 

(3)在一些点处(除了局部最优解saddle point)导数也会为0


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值