线性回归原理和实践
线性回归的数学推导
假设:我们知道机器学习的思想就是通过优化一个目标函数使其值达到最小,也就是找到函数的最小值点。线性回归的损失函数如下:
J(w)=∑i=0n12(yi−(wxi+b))2J(w)=\sum_{i=0}^n\frac{1}{2}(y_i-(wx_i+b))^2J(w)=i=0∑n21(yi−(wxi+b))2
这里的www和bbb是待学习得到的参数。下面从数学的角度推导一下为什么线性回归的目标函数会采用这样的公式??
假设我们拿到一个数据集:
| y | 特征1 | 特征2 | 特征3 |
|---|---|---|---|
| 通过线性回归的方式拟合一系列的数据,数学公式如下: | |||
| y=w1x1+w2x2+w3x3+by=w_1x_1+w_2x_2+w_3x_3+by=w1x1+w2x2+w3x3+b | |||
| 其中w1,w2,w3w_1,w_2,w_3w1,w2,w3分别表示不同特征对y值得影响程度,也就是待学习得参数,b在数学上表示偏置,也可以当成一个特征,只不过这列特征的数值全部是1. | |||
| 如果我们的项目特征数量特别多,写成上面那样过于难看,所以数学上我们习惯写成矩阵相乘的形式,如下: | |||
| y=WX+by = WX+by=WX+b | |||
| 其中W,X都是矩阵。 | |||
| 再假设我们用θ\thetaθ来表示真实值与预测值之间的误差, | |||
| yi=wixi+bi+θiy_i=w_ix_i+b_i+\theta_iyi=wi |

本文详细介绍了线性回归的数学原理,包括损失函数的推导,以及在实践中如何使用PyTorch实现。通过对比梯度下降法和数学计算,验证了线性回归模型的正确性。
最低0.47元/天 解锁文章
1677






