线性回归
算法背景概述
- 线性回归算法属于监督学习–回归类的一种
- 线性回归,评估自变量X与因变量Y之间的一种线性关系。当只有一个自变量的时候,称为一元线性回归,当具有多个自变量的时候, 称为多元线性回归。
- 线性回归算法,通俗的讲,就是将真实的数据,映射到坐标轴中,这些数据在坐标轴中,呈现偏向线状的形状,然后构建一个函数,能够让这个函数对应的数据尽量的接近真实数据,让这个函数在坐标轴上画出来的图像尽量的穿过真实数据中的所有的点,尽量让所有的点距离我们构建出来的函数所呈现在坐标轴上的线的差距最小。
算法思想解析
- 从简单的一元线性回归开始, y^=w∗x\hat{y} = w * xy^=w∗x
- 因为我们的数据未必都是要过原点的,所以根据实际情况,得出 y^=w∗x+b\hat{y} = w * x + by^=w∗x+b
- 当然,实际情况中,我们可能有多个因变量(特征、属性),每个因变量都对应着自己的权重,
- y^=w1∗x1+w2∗x2+w3∗x3+……+wn∗xn+b\hat{y} = w_{1} * x_{1} + w_{2} * x_{2} + w_{3} * x_{3} + …… + w_{n} * x_{n} + by^=w1∗x1+w