李宏毅 机器学习 -2017- Gradient Descent

由梯度(偏微分)和学习速率来更新新的训练参数,Gradient为Loss等高线的法线方向,注意负号
在这里插入图片描述
在这里插入图片描述
2)Learning Rate的调节方法
1)画出loss的更新曲线
2)自动调Learning Rate(与目标远的时候调高learning Rate,近的时候调低Learning Rate)
3)针对每个不同的参数设置不同的learing Rate:(Adagrad):每次更新w参数的时候在梯度上除以之前迭代所求出的梯度的均方根,等同二次微分

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3) Feature Scaling (参数因子的值域范围一样)
标准正则化:(x-u)/sigma

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
4)求在局部某点临近范围内的最小Loss通过对factor求全微分
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
梯度最大的问题是会陷入马鞍线上的点(saddle),局部最优点,非常平缓的地带

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值