一、模型表示
只含有一个特征/输入变量,这样的问题叫作单变量线性回归问题。
m :表示训练样本的数目
X:代表特征/输入变量
Y:代表目标变量/输出变量
(x, y):表示一个训练样本
(x(i), y(i)) :表示第i个训练样本
h(hypothesis):function h : X → Y so that h(x)
我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度,模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差(modeling error)。
我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。 即使得代价函数 最小。
二、代价函数
代价函数的直观理解:
在三维空间中存在一个使得 最小的点
等高线图
在三维空间中存在一个使得 最小的点