深入理解SHAP:模型预测解释的利器
1. SHAP简介
SHAP(SHapley Additive exPlanations)是一种用于解释个体预测的方法,它基于博弈论中最优的Shapley值。SHAP有自己独立的体系,而非Shapley值的子章节,原因主要有两点:一是SHAP的作者提出了KernelSHAP和TreeSHAP这两种新的Shapley值估计方法;二是SHAP有许多基于Shapley值聚合的全局解释方法。
1.1 SHAP的定义
SHAP的目标是通过计算每个特征对预测的贡献来解释实例x的预测结果。它使用合作博弈论中的Shapley值,数据实例的特征值就像联盟中的参与者,Shapley值告诉我们如何在特征之间公平地分配“收益”(即预测结果)。
SHAP将Shapley值解释表示为一种加法特征归因方法,即线性模型:
[g(z’) = \phi_0 + \sum_{j=1}^{M} \phi_j z’ j]
其中,(g)是解释模型,(z’)是联盟向量,(M)是最大联盟规模,(\phi_j)是特征(j)的特征归因,即Shapley值。联盟向量中,1表示对应特征值“存在”,0表示“不存在”。对于感兴趣的实例(x),联盟向量(x’)是全1向量,公式简化为:
[g(x’) = \phi_0 + \sum {j=1}^{M} \phi_j]
SHAP具有以下三个理想属性:
1. 局部准确性 :定义(\phi_0 = E_X(\hat{f}(x)))并将所有(x’_j)设为1,这就是Shapley效率属性,只是名称不同且使用了联盟向量。 <
超级会员免费看
订阅专栏 解锁全文
1297

被折叠的 条评论
为什么被折叠?



