机器学习之梯度下降算法

#梯度下降

  • learning rate(学习速率):控制以多大幅度更新参数。
      • 太小移动慢;
      • 太大可能越过最小值甚至无法收敛。
  • partial derivative terms(偏导项)

#如果参数已经在局部最小值,则参数不再改变。

 

#线性回归中的梯度下降

为了应用梯度下降算法,关键步骤是这个导数项。

推导导数项:

注意要同时更新两个参数。

梯度下降算法的问题之一是它容易陷入局部最优。

 

#Batch梯度下降

每一步梯度下降都遍历了整个训练集的样本。

 

 


PS.内容大部分为吴恩达老师机器学习的笔记【https://study.163.com/course/introduction/1004570029.htm

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值