PyTorch学习笔记(二)PyTorch回归问题——求解二元一次方程组
梯度下降算法(Gradient Descent)
- 梯度下降算法:x=x-learningrate*梯度——慢慢逼近最优解,最后在x附近停留。目的:求函数最小值
- 利用梯度下降算法,求解二元一次方程(Linear Equation ):
▪𝑦=𝑤 ∗𝑥+𝑏
1.567 = w * 1 + b
3.043 = w * 2 + b
▪得到:w = 1.477 ;b = 0.089 - 带有误差Noise的二元一次方程求解:
▪𝑦 =𝑤 ∗𝑥+𝑏+ 𝜖
▪𝜖∽ 𝑁(0, 1)
即:求loss=(WX+b-Y)^2 极小值,其中:WX+b为预测值,Y为实际值。
Linear Regression线性回归
▪ Linear Regression:线性回归。预测值y是连续,且属于实数空间(负无穷,正无穷)的问题。
▪ Logistic Regression:逻辑回归,适合二分类。预测值y是连续,且属于(0,1)。一般在线性回归的基础上+激活函数sigmoid…。
▪ Classification:适合多分类。总的输出节点概率和为1,取概率最大的点为预测值。
回归问题实战
#计算Loss值:
def compute_error_for_line_given_points(b, w, points):#points为一系列x、y的组合
totalError = 0
for i in range(0, len(points)):
x = points[i, 0]
y = points[i, 1]
# computer mean-squared-erro

本文深入探讨了使用PyTorch解决回归问题的方法,通过梯度下降算法求解二元一次方程组,详细介绍了线性回归原理及其实战应用。同时,对比了线性回归、逻辑回归和分类的区别。
最低0.47元/天 解锁文章
815

被折叠的 条评论
为什么被折叠?



