基本形式
给定包含mmm条记录的数据集DDD:
D=(x1,y1),(x2,y2),...,(xm,ym)
D={(x_1,y_1),(x_2,y_2),...,(x_m,y_m)}
D=(x1,y1),(x2,y2),...,(xm,ym)
线性回归模型试图学习一个线性模型以尽可能地预测因变量yyy:
f(x)=w1x1+w2x2+...+wdxd+b f(x)=w_1x_1+w_2x_2+...+w_dx_d+b f(x)=w1x1+w2x2+...+wdxd+b
参数估计
将线性表达式写为向量形式:
f(x)=wTx+b
f(x)=w^Tx+b
f(x)=wTx+b
利用最小二乘法令均方误差最小化:
w^∗=minw^(y−Xw^)T(y−Xw^) \hat{w}^*=\min_{\hat{w}}(y-X\hat{w})^T(y-X\hat{w}) w^∗=w^min(y−Xw^)T(y−Xw^)
w^∗=(XTX)−1XTy \hat{w}^*=(X^TX)^{-1}X^Ty w^∗=(XTX)−1XTy
注:当线性回归模型存在多重共线性问题时,可能会有多组解使得均方误差最小化,常见的解决方法是引入正则化。
线性回归模型的变形
1.对数线性回归
对数线性回归本质上仍然是线性回归模型,只是我们将因变量的对数作为模型新的因变量:
lny=wTx+b ln y=w^Tx+b lny=wTx+b
2.广义线性模型
当数据集不适合用传统的多元线性回归方法拟合时,我们可以考虑对因变量做一些合理的变换。最常用的就是对数线性回归,还有很多其他的变换统称为“广义线性模型”generalized linear model
:
y=g−1(wTx+b)
y=g^{-1}(w^Tx+b)
y=g−1(wTx+b)
其中g(⋅)g(·)g(⋅)是单调可微函数。