Stanford机器学习课程笔记——多变量线性回归模型
1. 多变量线性回归模型引入
前面一篇中学习了单变量的线性回归模型,那么自然就会想到多变量线性回归模型,以及非线性模型。这篇我们就学习。
其实,前面的单变量,顾名思义就是样本的特征只有1个,那么多变量就是样本的特征有多个。同样是前面的房屋价格的例子,吴恩达大叔给出了多变量的例子,如下:
这个新例子中,每个样本的特征有4个(房屋面积,卧室个数,楼层,建筑年代),需要许褚的依旧是房屋的价格。
多变量线性回归模型的假设和前面是类似的,只不过theta的个数随着变量个数增加而增加,为:。然后我们可以给theta_0配对一个x_0,这样整个形式就一样了。也就是:
,其中我们可以令x_0=1,这样可以转换成常见的向量乘矩阵的形式。也就是:
。其中的theta是行向量,里面都是线性回归模型中的参数,X是样本矩阵,每一列为一个样本(注意,这里和sklearn中的每一行为一个样本是不一样的)。
有了假设,后面就是代价函数。多变量线性回归模型中的代价函数和单变量的相似,都是