多元线性回归的基本原理
线性回归是机器学习中最简单的回归算法,多元线性回归指的就是一个样本有多个特征的线性回归问题,所以多元其实指的是多个特征。对于一个有个特征的样本而言,它的回归结果可以写作一个几乎人人熟知的方程:
y^i=ω0+ω1xi1+ω2xi2+...+ωnxin\hat{y}_i=\omega_0+\omega_1x_{i1}+\omega_2x_{i2}+...+\omega_nx_{in}y^i=ω0+ω1xi1+ω2xi2+...+ωnxin
ω\omegaω被统称为模型的参数,其中ω0\omega_0ω0被称为截距(intercept),ω1\omega_1ω1~ωn\omega_nωn 被称为回归系数(regression coefficient),有时也是使用θ\thetaθ或者β\betaβ来表示。
这个表达式,其实就和我们小学时就无比熟悉的y=ax+b是同样的性质。其中y^i\hat{y}_iy^i是我们的目标变量,也就是标签。xi1 ~ xin 是样本i上的不同特征。
如果有m个样本,则回归结果可以被写作:
y^=ω0+ω1x1+ω2x2+...+ωnxn\hat\boldsymbol{y}=\omega_0+\omega_1\boldsymbol{x_1}+\omega_2\boldsymbol{x_2}+...+\omega_n\boldsymbol{x_n}y^=ω0+ω1x1+ω2x2+...+ωn

最低0.47元/天 解锁文章
3210

被折叠的 条评论
为什么被折叠?



