深度架构中的模型可解释性:评估指标、解缠表示学习与未来方向
1. 解释评估指标
为了有效比较各种解释方法,需要可靠的评估指标。虽然热图在解释视觉和文本数据方面应用广泛,因其直观性强,但在处理图数据时,其优势会减弱,因为图数据难以把握,通常需要该领域的专家进行判断。因此,评估指标对于解释策略的研究至关重要。以下是一些常用的评估指标:
- 准确性(Accuracy) :适用于有真实标签的数据集。合成数据集有其规则定义的真实标签,尽管不确定图神经网络(GNN)在合成数据集上的预测情况,但创建它们的原则(如网络基序)可作为真实情况的近似。常见的准确性度量包括 F1 分数和 ROC - AUC。不过,准确性指标存在局限性,因为不确定 GNN 模型的预测方式是否与人相同,即预定义的真实标签是否真的有效。
- 保真度(Fidelity) :
- 基本保真度 :Pope 等人在 2019 年提出,削弱模型的关键特征是适得其反的。保真度的正式定义为:
[Fidelity = \frac{1}{N} \sum_{i = 1}^{N} (f(G_i)y_i - f(G_i / G_{e_i})y_i)]
其中 (f(.)) 是目标模型的输出函数,(G_i) 是第 (i) 个图,(G_{e_i}) 是其解释,(G_i / G_{e_i}) 表示去除了已识别解释的扰动后的第 (i) 个图。
- Fidelity+ 指标 :该指标认为,如果关键输入特征(节点、边和节点特征)确实具有判别性,那么去除这些特征后,模型的预测会发生显著变化。Fi
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



