线性回归原理、手写反向传播和pytorch实现

本文详细介绍了线性回归的数学原理,包括损失函数的推导,以及在实践中如何使用PyTorch实现。通过对比梯度下降法和数学计算,验证了线性回归模型的正确性。

线性回归原理和实践

线性回归的数学推导

假设:我们知道机器学习的思想就是通过优化一个目标函数使其值达到最小,也就是找到函数的最小值点。线性回归的损失函数如下:
J(w)=∑i=0n12(yi−(wxi+b))2J(w)=\sum_{i=0}^n\frac{1}{2}(y_i-(wx_i+b))^2J(w)=i=0n21(yi(wxi+b))2
这里的wwwbbb是待学习得到的参数。下面从数学的角度推导一下为什么线性回归的目标函数会采用这样的公式??
假设我们拿到一个数据集:

y 特征1 特征2 特征3
通过线性回归的方式拟合一系列的数据,数学公式如下:
y=w1x1+w2x2+w3x3+by=w_1x_1+w_2x_2+w_3x_3+by=w1x1+w2x2+w3x3+b
其中w1,w2,w3w_1,w_2,w_3w1,w2,w3分别表示不同特征对y值得影响程度,也就是待学习得参数,b在数学上表示偏置,也可以当成一个特征,只不过这列特征的数值全部是1.
如果我们的项目特征数量特别多,写成上面那样过于难看,所以数学上我们习惯写成矩阵相乘的形式,如下:
y=WX+by = WX+by=WX+b
其中W,X都是矩阵。
再假设我们用θ\thetaθ来表示真实值与预测值之间的误差,
yi=wixi+bi+θiy_i=w_ix_i+b_i+\theta_iyi=wi
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值