一元线性回归
基本概念:
线性回归是利用数理统计中回归分析来确定两种或两种以上变量之间相互依赖的定量关系的一种统计分析方法。
如果回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。
原理:
想要了解原理那我们先得了解什么是损失函数
损失函数:
用于衡量模型预测值与实际数据之间的差异,常用的损失函数包括均方误差(MSE)和平均绝对误差(MAE)。在一元线性回归中,损失函数通常采用最小二乘法的形式,其目的是找到一条直线(即回归线),使得所有数据点到这条直线的垂直距离的平方和最小。这有助于确保模型的预测值尽可能接近实际的数据点。
方法:
一元线性回归的模型可以表示为 y = wx + b
,其中 y
是预测值,w
是权重,x
是输入特征,b
是偏置项。
由于看公式太费劲,所以我用图和代码来解释,比较容易理解
import numpy as np
X = [4000,8000,5000,10000,12000]
y = [20000,50000,30000,70000,60000]
# 这是我们的数据
import matplotlib.pyplot as plt
plt.scatter(