LASSO

LASSO回归是一种适用于严重多重共线性的回归算法,介于线性回归和岭回归之间。它通过惩罚项的绝对值变化,解决了岭回归的某些局限,尤其在样本量较大时,能有效找出正确的模型。LASSO的独特之处在于它允许部分回归系数为0,且在适当条件下能高概率选择正确的自变量。实现LASSO时,通常需要进行标准化处理,并通过交叉验证选择合适的惩罚参数k。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Why

表现强劲的回归算法。可以把它看作是介于普通线性回归(对严重多重共线性无力)和岭回归\PLS PLA(专门解决严重多重共线性)之间的一种通用的回归算法。它允许严重多重共线性,但要求多重共线性满足特定条件,即对 Y 无关的 xi 们之间怎么严重的多重共线性都行,只要不对和 Y 有关的自变量有多重共线性即可(其实也是废话,要是对 Y 有关的自变量有多重共线性那它就肯定不是独立于 Y 的了嘛)。

What

和岭回归很像,只是惩罚项有所变化。
||YXβ||2+k||β||2,k>0 这是岭回归的目标函数。我们把它变为 minβ ||YXβ||2+k||β|

03-10
### Lasso回归算法介绍 Lasso回归(Least Absolute Shrinkage and Selection Operator),一种广受认可的线性模型正则化方法,首次由Robert Tibshirani于1996年提出[^3]。此方法在传统线性回归的基础上加入了L1范数作为正则化项,不仅有效应对了多重共线性的挑战,还显著增强了特征选择的能力以及提升了模型预测性能和可解释性。 #### 数学表达式 Lasso回归的核心在于其损失函数的设计,在原始平方误差基础上增加了L1正则化的约束条件: \[ \min_{\beta} \left\{ \frac{1}{2N}\sum_{i=1}^{N}(y_i-\hat{y}_i)^2+\lambda\|\beta\|_1 \right\} \] 其中 \( N \) 表示样本数量;\( y_i,\hat{y}_i \) 分别代表第 i 个观测的真实值与预测值;\( \beta \) 是待估计参数向量;\( \lambda \geqslant 0 \) 控制着正则化强度,决定了多少比例的系数会被压缩到零[^4]。 #### 特征选择机制 由于采用了L1范数而非L2范数进行惩罚,使得部分较小的权重可以直接缩减为零,进而实现了自动化的变量筛选过程——即只保留那些对于目标变量具有重要贡献的因素进入最终模型结构之中[^1]。 ### 应用场景 随着大数据时代的来临,面对海量且维度极高的数据集时,如何从中提取有价值的信息成为了一大难题。此时,Lasso回归凭借其优秀的稀疏特性脱颖而出,广泛应用于基因组学、金融工程等领域内的高维数据分析任务当中。具体来说: - **生物信息学**:用于识别疾病关联的关键遗传标记; - **金融市场分析**:帮助投资者挑选最具潜力的投资组合成分股; - **图像处理**:辅助计算机视觉系统完成对象检测等工作。 ```python from sklearn.linear_model import Lasso import numpy as np # 创建模拟数据集 X = np.random.rand(100, 5) Y = X[:, :3].dot([1.5, -2., 1]) + .5 * np.random.randn(100) # 构建并训练Lasso模型 model = Lasso(alpha=.1).fit(X, Y) print("Coefficients:", model.coef_) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值