一元线性回归
介绍
线性回归(Linear Regression)是一种用于建模和预测变量之间线性关系的统计方法。它假设因变量(目标变量)与一个或多个自变量(特征变量)之间存在线性关系,并通过拟合最佳直线(或超平面)来描述这种关系。
核心概念
1.模型形式
一元线性回归: 只有一个自变量,形式为:
y = w 1 x + b y=w_1x+b y=w1x+b
其中,y是因变量,x是自变量,w1是权重(系数),b是截距
多元线性回归:包含包含多个自变量,形式为:
y = w 1 x 1 + w 2 x 2 + ⋯ + w n x n + b y=w_1x_1+w_2x_2+⋯+w_nx_n+b y=w1x1+w2x2+⋯+wnxn+b
其中, x 1 , x 2 , … , x n x_1,x_2,…,x_n x1,x2,…,xn是多个自变量, w 1 , w 2 , … , w n w_1,w_2,…,w_n w1,w2,…,wn是对应的权重。
2. 目标
找到一组权重 ( w 1 , w 2 , … , w n ) (w_1,w_2,…,w_n) (w1,w2,…,wn)和截距(b),使得模型的预测值和真实值之间的误差最小
3. 损失函数
用于衡量预测值与真实值的差距:
均方误差(Mean Squared Error, MSE)
其中 y i 是真实值 y ^ 是预测值, N 是样本数量 其中 y_i 是真实值\hat{y}是预测值,N是样本数量 其中yi是真实值y^