线性回归算法原理
我们来学习
线性回归
的基本原理。
我们之前说到分类与回归的区别是预测的 y 值是否连续。由此可知,线性回归属于监督学习中的回归算法,用来预测连续的 y 值。下面我们先来看一下线性回归的预测函数~
预测函数
从一元到多元
我们在第 1 章学过的 f(x) = kx+b 是最简单的线性回归模型,模型的输入只有一个特征 x 。其中,斜率 k 在机器学习中的术语叫做特征 x 的权重
(weight),截距 b 在机器学习中的术语叫做偏置
(bias)。 取二者的英文缩写后,单特征的线性回归模型就可以写成 f(x) = wx+b。
只有一个输入特征的线性回归模型叫做一元线性回归模型
,如上面提到的 f(x) = wx+b;有多个输入特征的线性回归模型叫做多元线性回归模型
。那么,多元线性回归模型是什么样的呢?
先来看有两个输入特征 x1 和 x2 的线性回归模型:
模型的预测输