特征重要性排序–Permutation Importance
参考:Permutation Importance | Kaggle
相比于其他衡量特征重要性的方法,Permutation Importance的优点:
- 计算量低
- 广泛使用和容易理解
- 与我们要测量特征重要性的属性一致
Permutation Importance的计算是在模型训练完成后进行的,即,模型参数不再改变。如果我们将验证集中的单独一列的数据进行打乱,并保持其他列和目标值不变,那么,预测打乱后的验证集的结果会怎么变化?

上图示例是将第二列的数据进行shaffle,如果模型预测对该列特征的依赖性很大,那么打乱后,预测精度会受到很大的影响。
具体实施流程:
- 训练模型
- 打乱其中一列的数据,用该数据集进行预测,评估预测精度下降来提现该特征变量的重要性
- 将验证数据集还原,并重复第二步,分析其他特征变量
代码示例:
import numpy as np
import pandas

PermutationImportance是一种计算特征重要性的方法,具有计算量小、易于理解和与目标一致的优点。它在模型训练后进行,通过打乱验证集中某一特征的数据来观察模型预测精度的变化,以此评估特征的重要性。例如,当第二列数据被打乱后,如果预测精度大幅下降,说明该特征对模型预测至关重要。实现过程包括训练模型、对特征列进行打乱、评估预测精度变化。在小数据集上,有时会观察到负的特征重要性,意味着在某些情况下,打乱数据可能导致预测更准确,这通常是因为随机性。为了减小随机性的影响,可以多次重复此过程。
最低0.47元/天 解锁文章
1251





