Coggle数据科学 | Kaggle知识点:可解释的特征筛选方法

本文来源公众号“Coggle数据科学”,仅用于学术分享,侵权删,干货满满。

原文链接:https://mp.weixin.qq.com/s/Fa66iFcPkfiOA9xgNUUv4Q

您是否曾遇到过一个性能极佳的模型,却无法向业务方或监管机构解释它的决策依据?在大数据时代,模型性能固然重要,但其背后的可解释性 (Interpretability) 已成为构建可信赖 AI 的核心要素。

尤其是在金融风控、医疗诊断等高风险领域,仅仅提高 ROC-AUC或准确率是不够的。我们需要知道:模型是基于哪些关键信息做出的决策?这些信息是否稳定、可靠,并符合领域常识?

这正是特征选择 (Feature Selection) 阶段需要关注的重点。一个优秀的特征选择过程,不仅能精简模型、加速训练、降低过拟合风险。让我们深入了解这些方法如何帮助我们构建既高效又可解释的模型。

移除常量/准常量特征

变异性为零或较低的特征极少能作为有用的预测因子。因此,在数据科学项目之初移除它们是简化数据集和后续数据预处理流水线的有效方法。

在 Python 中,我们可以使用 pandas.std 或 pandas.unique 方法来查找常量特征,然后使用 drop 来移除它们。

移除重复特征

重复特征(Duplicate features)是指数据集中完全相同的列,即它们在所有行中包含的值都一模一样。重复特征可能由于数据管理不善或数据操作过程中的失误而意外引入。

例如,对分类变量进行独热编码(One-Hot Encoding)或添加缺失数据指示器时,可能会意外创建重复的新记录。

移除高相关的特征

pandas.corr()函数 支持的所有相关性计算方法都可以在此选择器中使用,包括 Pearson(皮尔逊)、Kendall(肯德尔)或 Spearman(斯皮尔曼)系数。您也可以传入一个自定义的相关性函数,前提是该函数返回的值介于 -1 和 1 之间。

  • 保留: 在一个相关的特征组中,第一个被发现的特征将被保留。

  • 移除: 所有后续被发现与该特征相关的其他特征都将被移除。

在线性模型中尤其重要,有助于提高模型稳定性和可解释性,避免同一个信息被多个特征重复携带。

移除信息量低的特征

在处理具有大量特征的数据集时,多个特征(如三个、四个或更多)之间出现相互关联的情况非常常见。在这种情况下,决定保留哪些特征和移除哪些特征成为一个关键的考虑因素。

  • 方差 (Variability/Variance): 倾向于保留具有最高方差的变量,因为更高的方差通常意味着更高的值多样性。

  • 基数 (Cardinality): 倾向于保留具有最高基数(唯一值数量)的变量,因为它通常提供关于目标变量的更多信息。

  • 缺失数据 (Missing Data): 倾向于保留缺失数据最少的变量,因为它通常更可靠、信息更完整

移除性能增益低的特征

识别那些单独就能展示出强大预测能力的特征,该选择过程的工作原理如下:

  1. 训练模型: 使用数据集中的每个特征(一个特征一个模型)单独训练一个机器学习模型。

  2. 评估性能: 使用选定的性能指标(如 R平方 等)评估每个单特征模型的表现。

  3. 保留特征: 保留那些性能超过指定阈值 () 的特征。

  4. 自动阈值: 如果  参数设置为 ,算法将自动选择性能高于所有单个特征模型平均性能的特征。

递归特征消除

整个变量集上训练一个模型,并记录其初始性能值。从该模型中获取特征重要性,并根据重要性对特征进行升序排序(即最不重要的特征排在前面),以确定递归移除的顺序。

  • 移除当前最不重要的特征。

  • 使用剩余变量训练一个新的模型。

  • 比较新模型的性能与前一个模型的性能。

    • 如果新模型性能下降(即移除该特征导致性能下降),则保留该特征。

    • 如果新模型性能不变或提高,则移除该特征。

  • 重复此过程,直到评估完数据集中的所有特征。

基于洗牌的选择

如果一个特征具有预测性,打乱它在行间的值会破坏其与目标变量的关系,导致预测结果显著偏离实际值(即性能大幅下降)。相反,如果一个特征不具有预测性,改变其值的顺序对模型预测几乎没有影响(即性能变化很小)。

  • 训练基线模型: 使用所有可用特征训练一个机器学习模型。

  • 建立基线性能: 确定该模型的基线性能指标值。

  • 特征洗牌: 随机打乱(Shuffling/Permutation)单个特征的值,而保持所有其他特征不变。

  • 生成预测: 使用步骤 1 中训练好的模型对包含已洗牌特征的数据生成预测。

  • 测量性能: 根据这些新预测测量模型的性能。

  • 决定保留:

    • 如果性能下降的幅度超过预定义的阈值,则保留该特征(因为它很重要)。

    • 否则,移除该特征(因为它不重要)。

  • 重复: 对每个特征重复步骤 3-6,直到所有特征都被评估。

基于目标均值性能的选择

通过计算每个特征级别(类别或区间)对应的目标变量平均值作为“预测值”,然后比较这些“预测值”与目标变量的实际值,以此来确定一个性能指标。

这个特征选择的核心思想非常简单:它实际上是为每个特征拟合一个最简单的模型一个单变量的最小二乘拟合。对于连续变量,它通过分箱(Binning)将其转换为“类别”。

  • “预测”生成:

    • 分类变量: 计算目标变量在每个类别中的平均值。

    • 连续变量: 将连续变量分到不同的区间(Bins)中,并计算目标变量在每个区间中的平均值。

  • 性能评估: 使用这些目标均值作为该特征的“预测”,将其与目标变量的真实值进行比较,计算出所选的性能指标。

基于 PSI 的特征删除

基于信息值 (IV) 的选择

探针特征选择

通过引入一个或多个随机变量(称为探针特征)来评估和选择特征的方法。其核心思想是:任何比随机噪声(即探针特征)重要性更低的特征,都应该被视为噪声并被移除。**

  1. 添加探针: 向原始数据集添加一个或多个随机生成的探针特征。

  2. 计算重要性: 为所有特征(包括探针)计算特征重要性。

  3. 确定阈值: 计算所有探针特征的平均重要性作为选择阈值。

  4. 特征选择: 移除所有重要性低于探针平均重要性的特征。

最小冗余最大相关性

THE END !

文章结束,感谢阅读。您的点赞,收藏,评论是我继续更新的动力。大家有推荐的公众号可以评论区留言,共同学习,一起进步。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值