可解释深度学习AI:反事实与半事实解释方法解析
1. CF方法概述
CF方法结合了重建损失、对抗损失和分类器损失来训练编码器和解码器架构。训练过程遵循典型的WGAN - GP框架:
1. 判别器训练 :判别器(也称为评论家)使用典型损失和梯度惩罚进行4次迭代训练。
2. 生成器/编码器训练 :在第5次迭代时,使用分类损失、重建损失和对抗损失来训练生成器/编码器。
训练过程中,所有这些损失的组合会进行反向传播。不过,该方法存在一个局限性,即CNN需要使用与判别器网络相同的激活函数和归一化方法。实验发现,在两个网络中使用leaky ReLU和实例归一化能得到最佳结果,但使用leaky ReLU在判别器中,ReLU在CNN中也能产生接近最优的结果。
2. PIECE+的结果与改进
2.1 样本解释
在MNIST数据集中,能看到从数字7到数字9的直接转变示例。尽管网络未被训练生成图像重建和反事实图像之间的合理图像,但可以通过逐渐调整矩阵来实现两者之间的“渐变”。在此过程中,可以生成数字7的半事实图像或数字9的反事实图像,决策边界将半事实和反事实图像区分开来。
2.2 自动选择反事实
PIECE的关键创新在于它能在多分类问题中生成反事实图像,并自动选择反事实类别。通过比较PIECE自动选择反事实类别和随机选择反事实类别的方法,发现PIECE自动选择的反事实类别生成的解释在像素空间上更接近原始测试图像,具有更好的对比解释效果。
2.3 PIECE的改进
原始PIE
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



