9、模型可解释性方法:从全局到局部

模型可解释性方法:从全局到局部

1. 全局可解释性方法

全局可解释性方法旨在帮助我们理解整个模型的行为,不依赖于特定的模型类型。以下是一些常见的全局可解释性方法及相关内容:
- 特征重要性 :通过特征重要性分析,系统的最终用户(如负责人)能对所使用的模型更有信心。例如,可将数学成绩和家长教育水平的部分依赖图(PDP)代码扩展到其他学科领域(阅读和写作),还可对其他特征进行扩展,如选择第二重要的特征“学生种族或族裔”来生成其PDP。
- 特征交互 :PDP可以扩展用于理解特征之间的交互。以预测数学成绩A、B、C和F为例,我们来研究两个最重要的特征——家长教育水平和学生族裔之间的交互。以下是使用PDPBox可视化特征交互的代码:

pdp_race_parent = pdp.pdp_interact(model=math_model, 
                                   dataset=df, 
                                   model_features=feature_cols, 
                                   features=['race_le', 'parent_le']) 

# Parameters for the Feature Interaction plot
plot_params = {
    # plot title and subtitle
    'title': 'PDP Interaction - Mat
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值