最小二乘法与岭回归的介绍与对比

本文介绍了线性回归中的最小二乘法,包括其数学原理和解决线性不可逆的问题。接着,详细阐述了岭回归,它是通过添加正则项来改善最小二乘法在特征过多或存在多重共线性时的稳定性。岭回归的性质和选择原则也被讨论。最后提到了LASSO回归,其正则项不同,更倾向于产生稀疏解,适用于特征选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一 线性回归(最小二乘法)

假设我们有n个样本数据,每个数据有p个特征值,然后p个特征值是线性关系

即对应的线性模型

写成矩阵的形式即是Y=XA

由于样本与模型不一定百分百符合,存在一些噪声,即误差,用B表示,B也是一个向量

即B=Y-XA

Y为样本值,XA为模型的计算值,即期望值

误差的平方的计算公式

Xi为行向量,A为列向量。

最小二乘法的目标就是取得最小的e对应的A,由于方差的计算是一个二次函数,即抛物线,对应存在一个最小值,即导数为0对应的A。所以对e求A的偏导数,再使其等于0,求解方程即可以获得A。

误差的平方e写成矩阵形式即为

对矩阵E取迹(迹就是矩阵对角线上所有元素的累加)且对迹求导后结果为一个矩阵。

即为 

展开为 

求导化简结果为

### 岭回归普通最小二乘法的区别 #### 1. 普通最小二乘法的原理 普通最小二乘法(Ordinary Least Squares, OLS)的目标是最小化残差平方,即: \[ \min_{\beta} \|y - X\beta\|_2^2 \] 其中 \( y \) 是目标值向量,\( X \) 是特征矩阵,\( \beta \) 是待估计的参数向量。OLS 的解为: \[ \beta_{OLS} = (X^TX)^{-1}X^Ty \] 当特征矩阵 \( X \) 存在多重共线性时,\( X^TX \) 可能接近奇异矩阵,导致 \( \beta_{OLS} \) 的估计不稳定[^2]。 #### 2. 岭回归的原理 岭回归通过在目标函数中加入 L2 正则化项来解决多重共线性问题。其目标函数为: \[ \min_{\beta} \|y - X\beta\|_2^2 + \lambda \|\beta\|_2^2 \] 其中 \( \lambda > 0 \) 是正则化参数。岭回归的闭式解为: \[ \beta_{Ridge} = (X^TX + \lambda I)^{-1}X^Ty \] 通过引入 \( \lambda I \),即使 \( X^TX \) 接近奇异矩阵,\( X^TX + \lambda I \) 仍然是可逆的,从而提高了估计的稳定性[^3]。 #### 3. 岭回归普通最小二乘法对比 - **稳定性** 普通最小二乘法对数据中的噪声非常敏感,尤其是在存在多重共线性的情况下。相比之下,岭回归通过牺牲部分无偏性,获得了更稳定的估计结果[^2]。 - **偏差方差权衡** 普通最小二乘法估计是无偏的,但当特征之间存在高度相关性时,其方差可能非常大。岭回归通过引入偏差(bias),降低了估计的方差,从而在均方误差(MSE)意义上表现更好[^1]。 - **适用场景** 当特征数量较多且存在多重共线性时,普通最小二乘法的表现较差。而岭回归在这种情况下能够提供更为可靠的估计结果。 - **计算复杂度** 普通最小二乘法的计算复杂度主要取决于矩阵求逆操作 \( (X^TX)^{-1} \)。对于高维数据,这一操作可能会变得非常耗时。岭回归由于引入了 \( \lambda I \),可以使用数值稳定的方法(如奇异值分解)进行优化[^4]。 #### 4. 数学示例 以下是一个简单的 Python 示例,展示如何使用 Ridge 回归 OLS 来拟合数据: ```python import numpy as np from sklearn.linear_model import Ridge, LinearRegression # 数据生成 np.random.seed(42) X = np.random.rand(100, 5) true_beta = np.array([1, 0.5, 0, 0, 0]) y = X @ true_beta + 0.1 * np.random.randn(100) # OLS 回归 ols = LinearRegression() ols.fit(X, y) print("OLS Beta:", ols.coef_) # Ridge 回归 ridge = Ridge(alpha=1.0) ridge.fit(X, y) print("Ridge Beta:", ridge.coef_) ``` #### 5. 总结 普通最小二乘法岭回归的主要区别在于是否引入了正则化项。普通最小二乘法追求无偏估计,但在存在多重共线性时可能导致不稳定的结果;岭回归通过引入偏差,降低了估计的方差,从而在实际应用中表现出更强的鲁棒性[^1]。 --- ###
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值