机器学习算法笔记——线性回归

本文详细介绍了线性模型的概念,包括一元和多元线性回归,以及回归分析的作用。重点讲解了最小二乘法、极大似然估计和梯度下降在参数估计中的应用,讨论了正则化在多元线性回归中的作用,如岭回归、Lasso回归和ElasticNet。同时,文章提到了在实际应用中如何使用这些方法,如scikit-learn库的示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

📖概念

字面意思就是建立线性模型进行回归分析。

线性回归可以是一维的(如一元线性回归),也可以是多维的(如多元线性回归),涉及多个自变量。通过拟合一条直线(二维空间)或一个超平面(多维空间)来进行预测。

❓什么是线性模型

线性模型的核心思想是建立自变量(特征)与因变量(预测值)之间的线性关系,即当自变量发生变化时,因变量也会按照一个固定的比率发生变化,这个比率就是模型的权重,在回归方程中也叫回归系数。

假设数据有d维的特征,它们的线性组合符合公式:

f(x) = w_1x_1 + w_2x_2 + ... + w_dx_d + b,一个d元一次函数

简写一下,用向量形式表示:

f(x) = w^Tx+ b,输出f(x)是输入特征的一个仿射变换①

这里的w^T表示权重向量(行向量),x表示特征列向量(列向量),截距b是偏置项;转置T的意义是把列向量w转为行向量(类似矩阵乘法),使w^Tx结果为标量,方便与b相加。

狭义的线性模型如上所述,指的是自变量上不可能有高次项,自变量与标签之间不能存在非线性关系的模型;广义的线性模型包括岭回归、lasso回归、Elastic Net、逻辑回归、线性判别分析等。

❓什么是回归分析

为一个或多个自变量与因变量之间的关系建模的方法,预测因变量的数值。

回归经常用来表示输出与输出之间的关系。

🎲参数估计

机器学习求解参数的过程被称为参数估计。

线性回归的核心是求解最佳拟合曲线,对应到模型本身就是求解最优的wb,使得新样本预测的误差尽可能小。什么情况下模型的参数最优呢?肯定是模型质量最优的时候,因此引入模型常用的性能度量——损失函数。

损失函数能量化实际值与预测值的差距,损失越小,模型自然越优。

线性回归本质是一个最优化问题,存在解析解②。

❎最小二乘法

回归任务中最常用的损失函数是均方误差(mean squared error),基于均方误差最小化来求解的方法称为“最小二乘法”。几何意义是,找到一条直线,使所有样本到直线上的欧式距离之和最小。

对于一元线性回归:

损失函数的计算公式为   E(w,b) = \mathop{\arg\min}\limits_{(w,b)}\sum^{m}_{i=1}(f(x_i)-y_i)^2

这里E(w,b)是关于w和b的凸函数③,因此局部最优解就是全局最优解,可以在导数为0时找到。

分别对w和b求导,然后令结果为0,可以得到w和b的最优解。

对于多元线性回归:

先将偏置b合并到参数w中(合体为\hat{w}),合并方法是在包含所有参数的矩阵中增加一列。把损失

最小化的公式转换为   \hat{w}* = \mathop{\arg\min}\limits_{\hat{w}}(y-X\hat{w})^T(y-X\hat{w})

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值