DAY 14 SHAP库的绘制

        上面这个图就是一个比较直观的解释。机器学习模型一般都是一个黑盒。比如某个模型要进行一些预测任务,首先对模型输入一些已知条件(Age=65,Sex=F,BP=180,BMI=40),然后模型根据输入进行训练,最终训练完的模型可以对该条件输出预测结果(Output=0.4)。

        所以这样模型只能得到最终的结果,至于模型内部是怎么计算的,输入的已知条件(Age=65,Sex=F,BP=180,BMI=40)是怎么对预测结果(Output=0.4)影响的,我们都没法知道。而SHAP模型就可以让我们知道这些已知条件到底对最终预测结果起到哪些影响(是对结果起到正向影响还是对结果起到了负向影响)。

        SHAP 属于模型事后解释的方法,它的核心思想是计算特征对模型输出的边际贡献,再从全局和局部两个层面对“黑盒模型”进行解释。SHAP构建一个加性的解释模型,所有的特征都视为“贡献者”。

一、SHAP

        SHAP的全称是SHapley Additive exPlanation,SHAP是由Shapley value启发的可加性解释模型。而Shapley value起源于合作博弈论,那什么是合作博弈呢。比如说甲乙丙丁四个工人一起打工,甲和乙完成了价值100元的工件,甲、乙、丙完成了价值120元的工件,乙、丙、丁完成了价值150元的工件,甲、丁完成了价值90元的工件,那么该如何公平、合理地分配这四个人的工钱呢?Shapley提出了一个合理的计算方法,我们称每个参与者分配到的数额为Shapley value。

        结合文章一开始提到的预测任务,我认为就是已知条件(Age=65,Sex=F,BP=180,BMI=40)一起完成了预测结果(Output=0.4),那么该如何公平、合理地分配这四个已知条件对预测结果的贡献呢?此时SHAP模型就会给这四个已知条件都分配一个Shapley value值,根据这个值我们就可以很好的进行理解。

二、SHAP 原理简介

目标: 理解复杂机器学习模型(尤其是“黑箱”模型,如随机森林、梯度提升树、神经网络等)为什么会对特定输入做出特定预测。SHAP 提供了一种统一的方法来解释模型的输出。

核心思想:合作博弈论中的 Shapley 值

SHAP (SHapley Additive exPlanations) 的核心基于博弈论中的 Shapley 值概念。想象一个合作游戏:

  1. 玩家 (Players): 模型的特征 (Features) 就是玩家。

  2. 游戏 (Game): 目标是预测某个样本的输出值。

  3. 合作 (Coalition): 不同的特征子集可以“合作”起来进行预测。

  4. 奖励/价值 (Payout/Value): 某个特征子集进行预测得到的值。

  5. 目标: 如何公平地将最终预测结果(相对于平均预测结果的“收益”)分配给每个参与的特征(玩家)?

Shapley 值的计算思路(概念上):

为了计算一个特定特征(比如“特征 A”)对某个预测的贡献(它的 Shapley 值),SHAP 会考虑:

  1. 所有可能的特征组合(子集/联盟): 从没有特征开始,到包含所有特征。

  2. 特征 A 的边际贡献: 对于每一个特征组合,比较“包含特征 A 的组合的预测值”与“不包含特征 A 但包含其他相同特征的组合的预测值”之间的差异。这个差异就是特征 A 在这个特定组合下的“边际贡献”。

  3. 加权平均:Shapley 值是该特征在所有可能的特征组合中边际贡献的加权平均值。权重确保了分配的公平性。

SHAP 的关键特性 (加性解释 - 加法解释):

SHAP 的一个重要特性是**加性 (Additive)**。这意味着:

  • 基准值 (Base Value / Expected Value): 这是模型在整个训练(或背景)数据集上的平均预测输出。可以理解为没有任何特征信息时的“默认”预测。

  • SHAP 值之和: 对于任何一个样本的预测,所有特征的 SHAP 值加起来,再加上基准值,就精确地等于该样本的模型预测值
    模型预测值(样本 X) = 基准值 + SHAP值(特征1) + SHAP值(特征2) + ... + SHAP值(特征N)
    

为什么会生成 shap_values 数组?

根据上述原理,SHAP 需要为每个样本的每个特征计算一个贡献值(SHAP 值):

  1. 解释单个预测:SHAP 的核心是解释单个预测结果。

  2. 特征贡献: 对于这个预测,我们需要知道每个特征是把它往“高”推了,还是往“低”推了(相对于基准值),以及推了多少。

  3. 数值化: 这个“推力”的大小和方向就是该特征对该样本预测的 SHAP 值

因此:

  • 对于回归问题:

    • 模型只有一个输出。

    • 对 个样本中的每一个,计算 个特征各自的 SHAP 值。n_samplesn_features

    • 这就自然形成了形状为 的数组。 代表第 个样本的第 个特征对该样本预测值的贡献。(n_samples, n_features)shap_values[i, j]ij

  • 对于分类问题:

    • 模型通常为每个类别输出一个分数或概率。

    • SHAP 需要解释模型是如何得到每个类别的分数的。

    • 因此,对 个样本中的每一个分别为每个类别计算 个特征的 SHAP 值。n_samplesn_features

    • 最常见的组织方式是返回一个列表,列表长度等于类别数。列表的第 个元素是一个 的数组,表示所有样本的所有特征对预测类别 k 的贡献。k(n_samples, n_features)

    • shap_values[k][i, j]代表第 个样本的第 个特征对该样本预测类别 k 的贡献。ij

总结:

SHAP 通过计算每个特征对单个预测(相对于平均预测)的边际贡献(Shapley 值),提供了一种将模型预测分解到每个特征上的方法。这种分解对于每个样本和每个特征(以及分类问题中的每个类别)都需要进行,因此生成了我们看到的 数组结构。shap_values

三、实战

1、前提准备:数据预处理和划分数据集、基准随机森林模型rf_model

2、导包

import shap
import matplotlib.pyplot as plt

# 初始化 SHAP 解释器
explainer = shap.TreeExplainer(rf_model)
# 计算 SHAP 值(基于测试集),这个shap_values是一个numpy数组,表示每个特征对每个样本的贡献值
shap_values = explainer.shap_values(X_test)

1. shap_values(测试集特征)  

  • 优势:解释模型在未见数据上的表现
  • 注意:需确保explainer初始化时已包含训练集信息

2. shap_values(训练集特征)  

(需特殊处理)

  • 使用训练集数据会暴露模型内部信息

3. shap_values(数据集全部特征)  

会导致数据泄露:

  • 训练数据包含在解释数据中
  • 破坏模型评估的客观性

1、SHAP 的维度要求

        代码跑不通,甚至换个电脑就不行了等玄学问题,本质都是由于没有搞清楚shap的维度要求,这里记录下,希望对大家有所帮助。

分类问题和回归问题输出的shap_values的形状不同(重点)。

分类问题:shap_values.shap = (n_samples, n_features, n_classes)

回归问题:shap_values.shap = (n_samples, n_features)

数据维度的要求将是未来学习神经网络最重要的东西之一

        搞懂了数据维度的要求,就可以知道如何去调整模型的输入数据,从而使得模型的输出数据符合shap_values的要求。

# 每一行代表一个样本,每一列代表一个特征,值表示该特征对该样本的预测结果的影响程度。
# 正值表示对该预测结果有正向影响,负值表示负向影响,某一样本的某一特征对标签0/1的影响程度是对称的。
shap_values  

输出:

array([[[ 9.07465700e-03, -9.07465700e-03],
        [ 7.21456498e-03, -7.21456498e-03],
        [ 4.55189444e-02, -4.55189444e-02],
        ...,
        [ 7.12857198e-05, -7.12857198e-05],
        [ 4.67733508e-05, -4.67733508e-05],
        [ 1.61298135e-04, -1.61298135e-04]],

       [[-1.02606871e-02,  1.02606871e-02],
        [ 1.85572634e-02, -1.85572634e-02],
        [-1.64992848e-02,  1.64992848e-02],
        ...,
        [ 2.00070852e-04, -2.00070852e-04],
        [ 5.11798841e-05, -5.11798841e-05],
        [ 1.02827796e-04, -1.02827796e-04]],

       [[ 3.21529115e-03, -3.21529115e-03],
        [ 1.28184070e-02, -1.28184070e-02],
        [ 1.02124914e-01, -1.02124914e-01],
        ...,
        [ 1.73012306e-04, -1.73012306e-04],
        [ 4.74133256e-05, -4.74133256e-05],
        [ 1.26753231e-04, -1.26753231e-04]],

       ...,

       [[ 1.15222741e-03, -1.15222741e-03],
        [-1.71843266e-02,  1.71843266e-02],
        [-3.04994337e-02,  3.04994337e-02],
        ...,
        [ 1.44859329e-04, -1.44859329e-04],
        [ 1.80111014e-05, -1.80111014e-05],
        [ 1.30107512e-04, -1.30107512e-04]],

       [[ 1.29249120e-03, -1.29249120e-03],
        [ 5.66948438e-03, -5.66948438e-03],
        [ 2.49050264e-02, -2.49050264e-02],
        ...,
        [ 2.50590715e-06, -2.50590715e-06],
        [ 4.68839113e-05, -4.68839113e-05],
        [ 1.15002997e-05, -1.15002997e-05]],

       [[-1.12640555e-03,  1.12640555e-03],
        [ 1.42648293e-02, -1.42648293e-02],
        [ 4.74790019e-02, -4.74790019e-02],
        ...,
        [ 6.19451775e-05, -6.19451775e-05],
        [ 3.30996384e-05, -3.30996384e-05],
        [ 4.45219920e-05, -4.45219920e-05]]])

注:

整体是一个列表,里边有1500个列表,对应测试集中1500个样本,每一个长这样:

# 一个样本对应的列表
[[ 9.07465700e-03, -9.07465700e-03],
[ 7.21456498e-03, -7.21456498e-03],
[ 4.55189444e-02, -4.55189444e-02],
...,
[ 7.12857198e-05, -7.12857198e-05],
[ 4.67733508e-05, -4.67733508e-05],
[ 1.61298135e-04, -1.61298135e-04]]

其中又有31个列表,对应31个特征,每一个长这样:

[ 9.07465700e-03, -9.07465700e-03]

其中有两个值,分别表示对标签0和1的shap值。

2、查看形状并验证

1.

shap_values.shape # 第一维是样本数,第二维是特征数,第三维是类别数

输出:

(1500, 31, 2)

2.

# 验证维度
print(f"样本数: {shap_values.shape[0]}")  # 1500
print(f"特征数: {shap_values.shape[1]}")  # 31 
print(f"类别数: {shap_values.shape[2]}")  # 2(0=非违约,1=违约)

输出:

样本数: 1500
特征数: 31
类别数: 2

3.

# 第1个样本中31个特征对预测结果的影响
shap_values[0]

输出:

array([[ 9.07465700e-03, -9.07465700e-03],
       [ 7.21456498e-03, -7.21456498e-03],
       [ 4.55189444e-02, -4.55189444e-02],
       [ 3.47666501e-04, -3.47666501e-04],
       [ 2.57821493e-04, -2.57821493e-04],
       [ 2.00758099e-03, -2.00758099e-03],
       [-7.54175659e-03,  7.54175659e-03],
       [-1.35324163e-03,  1.35324163e-03],
       [-7.08191659e-04,  7.08191659e-04],
       [-6.06829865e-03,  6.06829865e-03],
       [-1.90501403e-03,  1.90501403e-03],
       [ 1.44384291e-02, -1.44384291e-02],
       [-4.91452434e-02,  4.91452434e-02],
       [ 6.28172371e-03, -6.28172371e-03],
       [-1.64613559e-02,  1.64613559e-02],
       [-6.04576031e-01,  6.04576031e-01],
       [ 4.58074016e-04, -4.58074016e-04],
       [-1.95125086e-05,  1.95125086e-05],
       [-1.47478232e-05,  1.47478232e-05],
       [ 6.27274034e-04, -6.27274034e-04],
       [-1.26003035e-05,  1.26003035e-05],
       [-3.58303017e-04,  3.58303017e-04],
       [ 7.89740644e-05, -7.89740644e-05],
       [ 2.08492876e-04, -2.08492876e-04],
       [ 5.52330472e-06, -5.52330472e-06],
       [ 4.11019037e-04, -4.11019037e-04],
       [ 7.15614011e-06, -7.15614011e-06],
       [ 1.07037925e-04, -1.07037925e-04],
       [ 7.12857198e-05, -7.12857198e-05],
       [ 4.67733508e-05, -4.67733508e-05],
       [ 1.61298135e-04, -1.61298135e-04]])

数一数,确实有31个。

4.

print("第1个样本的第2个特征对应的SHAP值为:",shap_values[0][1])

输出:

第1个样本的第2个特征对应的SHAP值为: [ 0.00721456 -0.00721456]

3、绘制SHAP图

寻找shap_values如何与X_test形状相同,不然后边没法做。

注:相同的操作,shap_values的形状可能会不同,我这里是(样本×特征×类别)上边已经展示了。你训练出来可能是(类别×样本×特征),很迷很抽象!!!

print("shap_values shape:", shap_values.shape)
print("shap_values[0] shape:", shap_values[0].shape)
print("shap_values[:, :, 0] shape:", shap_values[:, :, 0].shape)

print("X_test shape:", X_test.shape)

输出:

shap_values shape: (1500, 31, 2)
shap_values[0] shape: (31, 2)
shap_values[:, :, 0] shape: (1500, 31)
X_test shape: (1500, 31)

        上面输出有点玄学,不用电脑可能输出不同,易得 shap_values[:, :, 0] 和 X_test 的尺寸一样,选它!

1.SHAP 特征重要性条形图

# --- 1. SHAP 特征重要性条形图 (Summary Plot - Bar) ---
print("--- 1. SHAP 特征重要性条形图 ---")
shap.summary_plot(shap_values[:, :, 0], X_test, plot_type="bar", show=False, max_display=10)
plt.title("SHAP Feature Importance (Bar Plot)")
plt.show()

--- 1. SHAP 特征重要性条形图 ---

当前模型重要程度前十的特征为:Credit Score、Current Loan Amount、Long Term、Annual Income、

Maximum Open Credit、Monthly Debt、Home Ownership、Current Credit Balance、

Years of Credit History、Number of Open Accounts

2.特征重要性蜂巢图

# --- 2.特征重要性蜂巢图(Summary Plot - Violin) ---
print("--- 2. SHAP 特征重要性蜂巢图 ---")
shap.summary_plot(shap_values[:, :, 0], X_test, plot_type="violin", show=False, max_display=10)  # 这里的show=False表示不直接显示图形,这样可以继续用plt来修改元素,不然就直接输出了
plt.title("SHAP Feature Importance (Bar Plot)")
plt.show()

--- 2. SHAP 特征重要性蜂巢图 ---

举例:Credit Score:越小(蓝色部分)越可能违约;越大(红色部分)违约可能性越小

3.SHAP 依赖性图

  • SHAP 依赖性图显示了单个特征在整个数据集中的影响。它们绘制了许多样本中特征的值与该特征的 SHAP 值的关系图,即揭示特征值与模型预测之间的关系,而非单纯的特征与特征的关系。
  • SHAP 依赖性图类似于部分依赖性图,但考虑了特征中存在的交互效应,并且仅在数据支持的输入空间区域中定义。

x轴为信用分数,点的颜色映射当前贷款金额值的分布,Y轴为对应样本的shap值。(图1)

# 揭示“Credit Score”和“Current Loan Amount”的联合影响模式
shap.dependence_plot('Current Credit Balance', shap_values[:, :, 0], X_test, interaction_index='Monthly Debt')

shap.dependence_plot('Annual Income', shap_values[:, :, 0], X_test, interaction_index='Monthly Debt')
shap.dependence_plot('Annual Income', shap_values[:, :, 0], X_test, interaction_index='Long Term')

(图1)

@浙大疏锦行

SHAP 可视化解释机器学习模型简介

<think>我们正在讨论如何保存SHAP生成的图表。根据用户的问题,他想要知道如何保存SHAP绘制的图。虽然引用中提供了一些使用SHAP的例子,但没有直接提到保存图表的方法。因此,我们需要根据SHAP的文档和常见用法来回答。 在SHAP中,大多数绘图函数都会返回一个matplotlib的plot对象(如果设置了`matplotlib=True`)或者是一个shap.plots._plot对象(默认情况下使用matplotlib)。因此,我们可以使用matplotlib的标准方法来保存图表。 具体步骤如下: 1. 在调用绘图函数时,设置`show=False`(如果该函数支持此参数),这样图形就不会立即显示,而是返回一个matplotlib的figure对象。 2. 然后,我们可以使用matplotlib的`savefig`函数来保存这个figure对象。 但是请注意,不同的SHAP绘图函数可能有不同的返回值。有些函数可能返回figure对象,有些可能返回axis对象,有些可能不返回任何值(直接显示图像)。因此,我们需要查看具体的绘图函数的文档。 以`shap.force_plot`为例(根据引用[2]中的示例): 在引用[2]中,使用了`shap.force_plot`并且设置了`matplotlib=True`,这样它就会使用matplotlib绘图。我们可以通过设置`show=False`来避免立即显示,并获取figure对象。 然而,在SHAP的官方文档中,从0.40.0版本开始,`force_plot`函数在设置`matplotlib=True`时会返回一个figure对象。因此,我们可以这样做: ```python fig = shap.force_plot(base_value=explainer.expected_value[1], shap_values=shap_oneFromTrain[1], features=data_sample_i, matplotlib=True, show=False) fig.savefig('force_plot.png', bbox_inches='tight') ``` 对于其他的图,比如`shap.plots.bar`(引用[1]中提到的平均SHAP图),在0.40.0版本之后,该函数也会返回一个matplotlib的figure对象(当使用matplotlib时)。因此,同样可以使用: ```python fig = shap.plots.bar(shap_values) fig.savefig('bar_plot.png', bbox_inches='tight') ``` 但是,需要注意的是,有些绘图函数可能默认使用Javascript进行交互式绘图(特别是在Jupyter Notebook中),而不是matplotlib。对于这些函数,如果我们想要静态图像,可以设置`matplotlib=True`(如果支持的话),或者使用其他方式保存。 另外,如果绘图函数不返回figure对象(比如旧版本的SHAP),我们可以使用matplotlib的当前figure来保存: ```python shap.plots.bar(shap_values) # 绘制图像,此时会创建一个figure plt.gcf() # 获取当前figure plt.savefig('bar_plot.png', bbox_inches='tight') ``` 或者,我们也可以先创建一个figure,然后在该figure上绘图: ```python plt.figure() # 创建一个新的figure shap.plots.bar(shap_values) # 此时会使用当前figure plt.savefig('bar_plot.png', bbox_inches='tight') ``` 总结:保存SHAP图表的一般方法: 1. 如果绘图函数返回figure对象,则直接使用该对象的`savefig`方法保存。 2. 如果不返回,则使用`plt.gcf()`获取当前figure,然后保存。 3. 注意设置`bbox_inches='tight'`可以避免保存的图像边缘被裁剪。 另外,对于交互式图形(例如使用Javascript绘制的),SHAP可能提供了导出为HTML文件的功能,比如`shap.save_html`函数可以保存force plot为HTML。例如: ```python shap.save_html('force_plot.html', shap.force_plot(base_value, shap_values, X)) ``` 因此,根据用户需要保存的图表类型,可以选择保存为静态图片(PNG、JPG等)或者交互式的HTML文件。 注意:以上代码示例基于SHAP的常见用法,具体版本可能会有差异,请根据实际使用的SHAP版本调整。 由于用户没有指定具体的图表类型,我们提供了两种主要类型的保存方法:静态图片和交互式HTML。 最后,提醒用户查阅所使用的SHAP版本的官方文档以获取最准确的信息。 根据以上分析,我们给出回答。 </think>### 保存 SHAP 绘图的方法 在 SHAP 中,保存可视化图表主要通过以下三种方式实现: #### 1. **通过 Matplotlib 对象保存** 当使用 `matplotlib=True` 参数时,绘图函数会返回 Matplotlib 的 `Figure` 对象,可直接调用 `savefig()` 保存: ```python # 单个样本力图保存示例 fig = shap.force_plot( base_value=explainer.expected_value[1], shap_values=shap_values[1], features=data_sample_i, matplotlib=True, show=False # 关闭自动显示 ) fig.savefig('force_plot.png', dpi=300, bbox_inches='tight') # 保存为高清PNG # 特征重要性条形图保存示例 bar_fig = shap.plots.bar(shap_values, show=False) bar_fig.savefig('feature_importance.png') ``` [^1][^2] #### 2. **保存为 HTML 文件** 适用于交互式可视化(如力图、依赖图): ```python # 生成 HTML 格式的力图 html_plot = shap.force_plot( base_value=explainer.expected_value, shap_values=shap_values[0] ) # 保存为独立 HTML 文件 shap.save_html('interactive_plot.html', html_plot) ``` #### 3. **直接截图保存** 对于无法直接导出静态图的场景: ```python # 依赖图截图保存示例 shap.dependence_plot( "feature_name", shap_values, features, show=False ) plt.gcf().set_size_inches(10, 6) plt.tight_layout() plt.savefig('dependence_plot.jpg') # 保存为JPG格式 ``` ### ⚠️ 注意事项 1. **版本兼容性** SHAP ≥ 0.40.0 版本才完整支持 `matplotlib=True` 参数,旧版本需升级: ```bash pip install --upgrade shap ``` 2. **格式选择建议** | 图表类型 | 推荐格式 | 优势 | |----------------|------------|--------------------------| | 静态图表 | PNG/SVG | 高清无损 | | 交互式可视化 | HTML | 保留交互功能 | | 论文用图 | PDF/EPS | 矢量格式适合印刷 | 3. **常见错误处理** 若遇 `'NoneType' has no attribute 'savefig'` 错误,需确认: ```python # 确保设置了 matplotlib=True 和 show=False fig = shap.plots.waterfall(shap_values[0], show=False, matplotlib=True) ``` ### 应用示例 引用[3]中的膜分离工艺特征分析,保存 SHAP 特征贡献图: ```python # 计算RBFNN模型的SHAP值 explainer = shap.Explainer(model) shap_values = explainer(features) # 保存膜面积参数的依赖图 fig = shap.dependence_plot( "膜面积", shap_values, features, show=False, matplotlib=True ) fig.savefig('membrane_area_dependence.pdf') # 保存为PDF矢量图 ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值