【速通版】吴恩达机器学习笔记Part2

目录

1. 代价函数(cost function)(P11-P15)

 2.梯度下降(GD,gradient descent)


 

1. 代价函数(cost function)(P11-P15)

代价函数用来评判算法结果的好坏,主要用的平方误差函数

 

 认为J衡量fit的程度

 总结:

 一个例子:

 

能理解,类似于一个二维优化问题,找二维里最佳的(w,b) 

 2.梯度下降(GD,gradient descent)

直观理解:

这玩意太熟了,应用范围广、针对可微函数很好用,但是问题在于必须针对可微函数并且容易陷入局部最优 。但是在线性回归+MSE的问题里只有一个局部最小(同时也是全局最小),因此这个方法非常实用。

关于derivative等不再赘述,\alpha 是学习率、优化里的步长。关键在于【同时更新w和b】,这是当提及GD时候的默认的关键

 关于这个学习率,小了收敛很慢,大了可能来回横跳,但是我们事先并不知道哪个值是最佳的,只能事先设置。理论上,我们知道当我们步数越多的时候,步长应该越小,(就像找东西,找到近的位置的时候应该更仔细,)但是,下面图表示出我们直观上可以用恒定的步长找到最优值(因为derivative在变小)

 数学式子如下:最简单的微积分 过

  

用图示直观理解如下: 

 之前

 

第一次作业相对简单,matlab码过多次了,其实就是一个梯度下降法的循环,略。 有需要可以参考:Coursera-ML-AndrewNg-Notes/code at master · fengdu78/Coursera-ML-AndrewNg-Notes · GitHub

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值