ANDREW Ng教授的机器学习(Machine Learning)学习笔记(2)– 线性回归模型(Linear regression model)
(一)认识线性回归
机器学习中,监督式学习算法通常分为分类算法和回归算法。分类算法是对离散型分布的预测,较为经典的算法如支持向量机(SVM)、logistic回归等。回归算法适用于连续型分布的预测,对于给定的样本集,用一个函数去拟合使拟合函数与样本集之间误差最小。
线性回归算法形式简单,通过了解这个算法的概况,来了解监督学习过程完整的流程。举个例子,这个例子是预测住房价格的,采用包含波特兰市住房价格的数据集,横坐标为房子的尺寸,纵坐标为房子的实际价格。图中绿色线条就是采用线性回归模型的拟合函数。对于一个新输出的特征量x(#input,房子大小)给出房子价格的预测
在数据集中,用m 表示训练样本的数目,
单变量线性回归是假定特征变量只有一个,预测值与样本特征之间的关系是线性的,那么假设函数
(二)线性回归模型
为选取模型参数θ0、θ1,我们希望预测函数的值与目标变量的值之间的差的平方最小,其数学表达是
若预测函数与多个特征量有关,如在预测房价的例子中,房价除了与房屋尺寸有关,还有可能与卧室数量、建造年限、地理位置等因素有关,此时,该模型便是多特征量线性回归模型,其假设函数h=θ0+θ1x1+θ2x2+⋯+θnxn。假设函数的向量化表示方法为
(三)模型参数的选取
使用梯度下降方法来是代价函数最小。梯度下降是一种很常用的算法,它不仅被用于线性回归,还被应用于机器学习的其他领域。使代价函数最小化的梯度下降算法的要点是:假设函数h=θ0+θ1x1,初始化模型参数θ0、θ1,接着让θ0、θ1以一定规律变化降低J(θ0,θ1)直到代价函数取最小值。梯度下降的数学表达是
若模型为多变量线性回归模型,假设函数h=θTx=θ0+θ1x1+θ2x2+⋯+θnxn,梯度下降算法的数学表达是
使用梯度下降算法可以得到局部最优解,这是梯度下降的一个特点,这也解释了当学习速率α保持不变时,梯度下降也可以收敛到局部最低点。
除了梯度下降算法,我们还可以使用正规方程。对于某些线性回归模型,用正规方程求解参数θ的最优值更好。相对于梯度下降算法是一种迭代算法,正规方程是一种解析算法。其数学表达是
| 梯度下降 | 正规方程 |
|---|---|
| 需选择学习速率α | 无需选择学习速率α |
| 需多次迭代 | 无需迭代 |
| 特征量很多时仍可正常工作 | 需计算(XTX)−1,特征量很多时较慢(n<10000) |
这篇博客介绍了机器学习中的线性回归模型,作为监督学习的一种,用于连续型分布的预测。通过线性回归算法,如预测住房价格的例子,展示了如何用函数拟合样本集以最小化误差。文章还探讨了模型参数的选择,利用梯度下降方法优化代价函数。
423

被折叠的 条评论
为什么被折叠?



