可解释图智能:代理模型与相关方法解析
1. 引言
在图智能模型的研究中,解释模型的预测结果至关重要。目前,研究人员正在不断努力改进基于扰动的解释方法,如CF - GNNExplainer、RCExplainer、ReFine和CF2等。同时,代理模型作为一种解释图智能模型的方法,也受到了广泛关注。
2. 代理模型的概念视图
当访问图智能模型系统受到限制时,如只能进行查询,梯度/特征依赖技术和排列依赖方法的实现可能会面临挑战。此时,使用更简单的代理模型来模拟目标图智能模型的输入 - 输出转换是一种合理的方法。
代理模型的核心思想是利用简单易读的模型来近似复杂深度模型在输入样本附近区域的预测。其假设输入实例附近区域的关系更简单,可由简化的代理模型有效捕捉。然而,将代理方法应用于图领域存在一些挑战,因为图数据具有不连续性和拓扑信息,难以确定输入图的相邻区域和合适的可解释代理模型。
近年来,出现了一些代理技术,如GraphLime、PGM - Explainer和RelEx等。这些技术的通用工作流程如下:
graph TD;
A[解释特定输入图的预测] --> B[收集包含相邻数据对象及其预测的局部数据集];
B --> C[应用易解释模型到数据以获取局部数据知识];
C --> D[将可解释模型的解释视为原始模型对输入图的解释];
虽然这些方法在概念上相似,但主要区别在于局部数据的获取方式和可解释代理模型的应用方式。
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



