模型可解释性方法:从全局到局部
1. 全局可解释性方法
全局可解释性方法旨在帮助我们理解整个模型的行为,不依赖于特定的模型类型。以下是一些常见的全局可解释性方法及相关内容:
- 特征重要性 :通过特征重要性分析,系统的最终用户(如负责人)能对所使用的模型更有信心。例如,可将数学成绩和家长教育水平的部分依赖图(PDP)代码扩展到其他学科领域(阅读和写作),还可对其他特征进行扩展,如选择第二重要的特征“学生种族或族裔”来生成其PDP。
- 特征交互 :PDP可以扩展用于理解特征之间的交互。以预测数学成绩A、B、C和F为例,我们来研究两个最重要的特征——家长教育水平和学生族裔之间的交互。以下是使用PDPBox可视化特征交互的代码:
pdp_race_parent = pdp.pdp_interact(model=math_model,
dataset=df,
model_features=feature_cols,
features=['race_le', 'parent_le'])
# Parameters for the Feature Interaction plot
plot_params = {
# plot title and subtitle
'title': 'PDP Interaction - Mat
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



