机器学习之单变量线性回归
吴恩达老师的coursera课程翻译版:https://www.bilibili.com/video/BV164411b7dx?p=5
参考github上大佬python实现算法的笔记:https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes
很经典的课程啦,这个翻译还可以,有不清楚的直接看英文。网上笔记很多,我也记录一下,记得牢固一点。
本章节学习的是监督学习两大类(回归问题、分类问题)中的回归问题。
一、模型描述
-
变量表示:
- m:训练集数量
- x:输入变量(特征)
- y:输出变量(目标变量)
- (x,y):训练样本
- (x(i),y(i)):第i个训练样本
-
监督学习的工作原理:
重点是找到假设函数h(hypothesis),h有很多种我们从简单的一元线性学起。
h的函数表示: h ( x ) = θ 0 + θ 1 x h(x)=\theta_{0}+\theta_{1}x h(x)=θ0+θ1x
其中 θ i \theta_{i} θi为模型参数,要求得假设函数必须得到参数值,而参数值是我们要通过下面的代价函数计算求得的。
二、引出代价函数的概念
-
作用:能够计算出最有可能拟合我们数据的直线。
-
要找出最有可能拟合的直线,就应该满足下式:
m i n i m i z e θ 0 , θ 1 ∑ i = 1 m ( h ( x ) ( i ) − y ( i ) ) 2 2 m {minimize \atop {\theta_{0},\theta_{1}}}\sum_{i=1}^m\frac{({h(x)^{(i)}-y^{(i)}})^2}{2m} θ0,θ1minimizei=1∑m