吴恩达机器学习 16-30

三、梯度下降

1、步骤

有了J(w,b) ,这个损失函数不只是限于线性回归,对于其他函数也一样,只要是目的是为了寻找最小的J下的w和b即可。

当然有些函数可以不止一个最小值,那怎么办?

那如果起始点不在这里呢

2、如何实现

3、理解梯度下降

为了简单理解 这里考虑一个参数的J(w)

理在左侧的时候

4、对于学习率的理解

(1) ru如果学习率太小

(2)如果学习率太大

终可能会永远无法达到最小值,或者发散。

学习率是固定的 会随着梯度的减小自动更新的变小

5、用于线性回归的梯度下降

具体的导数实现

什么是batch

四、多维特征

2、向量化

3、多元线性回归的梯度下降

4、特征缩放

当不同特征的范围相差很多的时候 不利于线性回归 这个时候就需要进行特征缩放

如何做到

1、除以最大值

2、均值归一化

3、z-score 标准化

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

浅痕yy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值