一元线性回归
一元线性回归算法的原理比较简单,大致思路就是:对于给定的数据集,找到一条直线y=θ0x+θ1y=\theta_0x+\theta_1y=θ0x+θ1,使这条直线可以很好的拟合所有的数据。那么如何选择直线,这是一元线性回归的关键所在。
首先,思考一个问题,什么样的直线可以算得上最好的拟合所有样本点?于是这就引出了代价函数。
代价函数
代价函数也可以称为损失函数,从字面意思即可理解,代价函数代表的是真实值与预测值之间的误差。
在一元线性回归算法中,代价函数如下定义:
- 使用最小二乘法
- 真实值yyy,预测值hθ(x)h_\theta(x)hθ(x),则误差的平方为(y−hθ(x))2(y-h_\theta(x))^2(y−hθ