Lasso回归

-----http://cos.name/

两个角度看岭回归 -- 方差扩大 + 2范数惩罚


http://www.cnblogs.com/wentingtu/archive/2012/05/17/2505625.html

有偏估计

http://wenku.baidu.com/link?url=fOI2x7VxXEhR3dnM2NaOd3oTtceOfpc10uuc4URO_U9RQur25OoscI37sAJjnukiiB9HwEgAh_r9tzmnSkSSWEBWcqPU1-SMLsgHiwI2uIy



线性回归建模–变量选择和正则化(1):R包glmnet

http://site.douban.com/182577/widget/notes/10567212/note/288551448/



分组最小角回归算法(group LARS)

http://cos.name/2011/04/group-least-angle-regression-algorithm/


Least Angle Regression, Lasso
and Boosting

https://cloud.github.com/downloads/cosname/editor/lars_Lasso_boost.pdf



多元统计分析 :

有主成分分析和岭回归

http://wenku.baidu.com/link?url=10_dJugpZdEJ4RdwYPeFh0TE_KSR803BI6yJ_Hfo9vdXZ630xUZpJERHM3By6NCnD8mNWu2CfIUrvzH2M-Mn7L74DMkfhmRY9SuVyzaRMqW

特征值和特征向量的几何和物理意义

http://blog.youkuaiyun.com/dongtinghong/article/details/14216139

关于T检验,Z检验,F检验,卡方检验等

关http://f.dataguru.cn/thread-327858-1-3.html于T检验,Z检验,F检验,卡方检验等

关于T检验,Z检验,F检验,卡方检验等


海藻例子

http://wenku.baidu.com/link?url=xKZx_GYdnMF4N6Lxre7Bt_wxJUsSOIoINg6oHP6HaEy_ZsnEBGxR9xZTRfjMgr1g--Vxg-YrDxm_DqwvhYIwDCqyc8RccUdQ6KARLsEbRte


http://wenku.baidu.com/link?url=MXqyWQSAaI2GnqU6CLo4ArZ10j4dPV1LvnxDJUHznC8_76IAcMW5hdSAOBJeL9XpY80FgmLv7zPiXnqJKwzNNWXTTeCtdJVV6RDiFx7xIA7


### Lasso回归的使用方法与原理 Lasso回归(Least Absolute Shrinkage and Selection Operator)是一种基于线性回归的扩展模型,其核心在于通过加入L1正则化项来实现特征选择和防止过拟合的功能。以下是关于Lasso回归的具体原理和使用方法: #### 原理概述 Lasso回归的目标是最小化损失函数的同时增加一个正则化约束条件。它的目标函数可以表示为: \[ J(\beta) = \frac{1}{2n} \|X\beta - y\|_2^2 + \lambda \|\beta\|_1 \] 其中 \( X \) 是输入矩阵,\( y \) 是目标向量,\( \beta \) 表示模型参数,\( n \) 是样本数量,\( \lambda \) 是控制正则化强度的超参数[^3]。 由于L1正则化的存在,Lasso回归倾向于将某些特征的系数压缩至0,从而实现了自动特征选择的效果。这是因为它会惩罚较大的权重值,并促使许多较小的权重变为零[^4]。 #### 实现方式 在实际应用中,可以通过多种编程库实现Lasso回归。以下是一个Python代码示例,展示如何利用`scikit-learn`库完成Lasso回归的任务: ```python from sklearn.linear_model import Lasso import numpy as np # 创建模拟数据集 np.random.seed(42) X = np.random.rand(100, 5) # 100个样本,5个特征 y = 3 * X[:, 0] + 2 * X[:, 1] - 4 * X[:, 2] + np.random.randn(100) # 初始化Lasso模型 lasso = Lasso(alpha=0.1) # alpha对应于λ,调节正则化程度 # 训练模型 lasso.fit(X, y) # 输出模型系数 print("Coefficients:", lasso.coef_) ``` 在这个例子中,我们创建了一个简单的五维数据集,并训练了一个Lasso回归模型。通过调整`alpha`参数,我们可以改变正则化的强弱,进而影响哪些特征会被保留或舍弃[^1]。 #### 特征选择的能力 Lasso回归的一个显著优势是它可以作为特征选择工具。当面对高维度的数据时,很多无关紧要或者冗余的特征可能会干扰模型的表现。借助Lasso回归,这些无意义的特征往往被赋予零权值,从而使最终模型更加简洁高效[^2]。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值