PyTorch学习笔记(二)PyTorch回归问题——求解二元一次方程组

本文深入探讨了使用PyTorch解决回归问题的方法,通过梯度下降算法求解二元一次方程组,详细介绍了线性回归原理及其实战应用。同时,对比了线性回归、逻辑回归和分类的区别。

PyTorch学习笔记(二)PyTorch回归问题——求解二元一次方程组

梯度下降算法(Gradient Descent)

  1. 梯度下降算法:x=x-learningrate*梯度——慢慢逼近最优解,最后在x附近停留。目的:求函数最小值
  2. 利用梯度下降算法,求解二元一次方程(Linear Equation ):
    ▪𝑦=𝑤 ∗𝑥+𝑏
    1.567 = w * 1 + b
    3.043 = w * 2 + b
    ▪得到:w = 1.477 ;b = 0.089
  3. 带有误差Noise的二元一次方程求解:
    ▪𝑦 =𝑤 ∗𝑥+𝑏+ 𝜖
    ▪𝜖∽ 𝑁(0, 1)
    即:求loss=(WX+b-Y)^2 极小值,其中:WX+b为预测值,Y为实际值。

Linear Regression线性回归

▪ Linear Regression:线性回归。预测值y是连续,且属于实数空间(负无穷,正无穷)的问题。
▪ Logistic Regression:逻辑回归,适合二分类。预测值y是连续,且属于(0,1)。一般在线性回归的基础上+激活函数sigmoid…。
▪ Classification:适合多分类。总的输出节点概率和为1,取概率最大的点为预测值。

回归问题实战

#计算Loss值:
def compute_error_for_line_given_points(b, w, points):#points为一系列x、y的组合
    totalError = 0
    for i in range(0, len(points)):
        x = points[i, 0]
        y = points[i, 1]
        # computer mean-squared-erro
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Laura_Wangzx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值