【机器学习】Selecting good features – Part IV: stability selection, RFE and everything side by side

本文对比了稳定性选择和递归特征消除(RFE)两种特征选择方法,结合实例展示了它们在处理数据子集和相关特征时的表现。稳定性选择能平衡模型改进与数据解释,而RFE的稳定性依赖于排序模型的选择。结论强调了选择特征排序方法时应考虑最终目标和方法稳定性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Selecting good features – Part IV: stability selection, RFE and everything side by side


在我以前的文章中,我研究了单变量方法、线性模型和正则化以及随机森林的特征选择。

在本文中,我将研究另外两种方法:稳定性选择递归特征消除(RFE),这两种方法都可以考虑包装方法。它们都建立在其它(基于模型的)选择方法的基础上,如回归或SVM,在不同的数据子集上建立模型,并从集合中提取排名。

作为总结,我将运行前面讨论的所有方法,以突出它们彼此的优缺点和陷阱。

稳定性选择

稳定性选择是一种相对新颖的特征选择方法,它基于子采样并结合选择算法(可以是回归、支持向量机或其他类似的方法)。高层次的思想是在不同的数据子集和不同的特征子集上应用特征选择算法。在重复多次处理之后,选择结果可以被聚合,例如,通过检查一个特征在被检查的特征子集中被选择为重要特征的次数。我们可以期望强大的特性具有接近100%的分数,因为它们总是尽可能地被选择。较弱、但仍然相关的特征也将具有非零分数,因为当在当前选择的子集中不存在更强的特征时将选择它们,而无关的特征将具有分数(接近)零,因为它们永远不会在所选择的特征中。

Skleak实现了随机套索和随机物流回归类中的稳定性选择。

from sklearn.linear_model import RandomizedLasso
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值