基于scikit-learn的线性模型与逻辑回归实战
1. LARS回归技术
LARS(Least Angle Regression)是一种非常适合高维问题的回归技术,也就是特征数量 p 远大于样本数量 n 的情况。
1.1 准备数据
首先,我们需要导入必要的对象,并生成一个包含200个数据点和500个特征的数据集,同时选择低噪声和少量的信息特征:
from sklearn.datasets import make_regression
reg_data, reg_target = make_regression(n_samples=200,
n_features=500, n_informative=10, noise=2)
1.2 训练LARS模型
由于我们使用了10个信息特征,我们也指定LARS模型中需要有10个非零系数:
from sklearn.linear_model import Lars
lars = Lars(n_nonzero_coefs=10)
lars.fit(reg_data, reg_target)
我们可以验证LARS模型是否返回了正确数量的非零系数:
import nu
超级会员免费看
订阅专栏 解锁全文
926

被折叠的 条评论
为什么被折叠?



