可解释与隐私保护的图智能:概念、威胁与应对策略
1. 可解释图智能
可解释性是图智能领域的重要议题,它关乎人们对图智能模型决策过程的理解和信任。在可解释图智能中,有一个代码片段涉及稀疏性的控制与初始化:
114. return self.__sparsity
115. else:
116. raise ValueError(f' You can control and initialize your '
117. f'Sparsity once you initialize that class rather than computing it.')
这段代码表明,稀疏性的控制和初始化应该在类初始化时进行,而不是在计算过程中进行。
另外,稳定性度量也是可解释图智能中的一个关键概念。更好的解释需要具有更高的一致性,即当输入发生微小变化而不影响预测时,解释应该保持不变。稳定性测量用于评估解释技术的稳定性,具体步骤如下:
1. 以给定输入 $G_i$ 及其解释 $m_i$ 作为基准。
2. 对输入 $G_i$ 进行微小扰动,得到新输入 $\tilde{G}_i$,且 $G_i$ 和 $\tilde{G}_i$ 必须具有相同的预测结果。
3. 获取 $\tilde{G}_i$ 的解释 $\tilde{m}_i$。
4. 通过比较 $m_i$ 和 $\tilde{m}_i$ 的差异来计算稳定性得分,得分越低表示解释方法越稳定,对噪声信息
超级会员免费看
订阅专栏 解锁全文
1009

被折叠的 条评论
为什么被折叠?



