论文概要
LIME
LIME (Local Interpretable Model-agnostic Explanations):一种新颖的解释技术,通过在预测周围局部学习一个可解释模型,以一种可解释的和可信赖的方法来解释任何分类器的预测。主要贡献总结如下:
- LIME:一种通过用可解释性模型对预测进行局部近似,以一种可信赖的方式对于任何分类器或回归器预测进行解释的算法。
- SP-LIME:该方法通过子模块优化,选择一组具有解释的代表性实例来解决“模型信任”问题。
Algorithmic process analysis
假设建立一个大眼仔与树蛙的分类器 f ( x ) f(x) f(x),若想直接解释这个模型为什么这样分类是非常困难的。
LIME提供了一个局部解释的思路:选取一个被解释实例(下图中星星-玩具树蛙),并用简单的线性回归模型来拟合决策边界,从而解释模型 f ( x ) f(x) f(x)在这条边界上是如何做决策的。

LIME算法过程
Step1:将数据分割成小区块,随机扰动被解释实例的小区块产生新样本,喂入模型 f ( x ) f(x) f(x)预测结果。
将玩具树蛙的图片喂入模型 f ( x ) f(x) f(x)预测出为树蛙的概率为 0.54 0.54 0.54。为了了解该模型所做的决策,将此图片根据 超像素分割算法 切分成 M M M个 Super Pixel ( S P 1 , S P 2 , … , S P M ) \text{Super Pixel }(SP_1, SP_2, \dots, SP_M) Super Pixel (SP1,SP2,…,SPM)。

注: x i ′ = S P i x'_i=SP_i xi′=SPi,每个 Super Pixel \text{Super Pixel} Super Pixel均有两个取值:0表示该块超像素被灰色覆盖;1表示该块超像素为原图块(刚划分好时,每个 x i ′ = 1 x'_i=1 xi′=1,表示每个超像素块均为原始图块)。 z ′ z' z′随机扰动 x ′ x' x′,使 Super Pixel \text{Super Pixel} Super Pixel的值随机指派为0或1。
根据上述可知,共有 M M M个 x i ′ x'_i xi′,而通过扰动,每个 z i ′ z'_i zi′具有两种取值。通过将 M M M个 z i ′ z'_i zi′随机指派为0或1,可以得到新的扰动样本 z z z,从而可到新的扰动数据集 Z \mathcal{Z} Z。(具体理解见代码案例)
将扰动数据集 Z \mathcal{Z} Z喂入分类模型 f ( ⋅ ) f(\sdot) f(⋅)中,就能得出结果 y y y(这里 y y y表示是树蛙的概率),从而了解到新数据集在分类模型的分布状况。

Step2:根据样本相似度(例如特征距离)给予样本权重。
利用核函数(kernel function)来计算新扰动样本 z z z与被解释实例 x x x的相似程度,与被解释实例越相似(越近)给与较大的权重,越不相似(越远)则给予较小的权重。

Step3:根据扰动样本训练一个简单的线性回归模型 g ( z ′ ) g(z') g(z′),并根据模型的系数解释实例。
如下图,可以理解模型会将玩具树蛙的照片判断为树蛙的原因,主要是因为玩具树蛙的头部特征。

**注:**对于结构性数据也是以上三个步骤,进行数据扰动(扰动的方式则是随机选择特征进行扰动) → \rightarrow →定义相似度 → \rightarrow →训练简单可解释的模型。

本文介绍了LIME(Local Interpretable Model-agnostic Explanations)算法,它是一种新颖的解释技术,可对任何分类器或回归器的预测进行局部近似解释。文中阐述了LIME算法的过程,包括数据分割、样本权重计算和线性回归模型训练,并给出了代码案例,展示了如何使用该算法进行图像分类解释。
最低0.47元/天 解锁文章
2157

被折叠的 条评论
为什么被折叠?



