本文介绍一篇被CVPRW2020接受的论文,主要关于一种基于置信分数的视觉可解释性方法。本文的亮点在于:在CAM系列方法的基础上,首次提出了一种新的gradient-free的权重表达方式。
本文首发自极市平台,作者王浩帆,转载需获授权。
论文:Score-CAM:Score-Weighted Visual Explanations for Convolutional Neural Networks
官方代码:https://github.com/haofanwang/Score-CAM
本文是由来自于卡内基梅隆大学、德州农工大学、武汉大学的研究人员共同提出的一种基于置信分数的视觉可解释性方法,目前论文被CVPRW 2020接收,代码已开源。
背景介绍
- 视觉可解释性
神经网络可解释性是指对于神经网络所做出的决策,进行合理的解释。这里解释可以是从数学理论层面进行的先验解释,比如对于激活函数的差异分析、模型的泛化能力分析,也可以是对于网络预测结果的后验解释,比如我们训练好的模型将一张图片分类为"猫",我们希望知道网络是通过什么因素或特征将它分类为"猫"这个类别的。本文关注的是后验解释,即解释已有模型的决策。而对于卷积神经网络,目前最常见的是通过可视化的方式来解释模型的决策(下文中可解释性与可视化将不再区分)。
- 主流的视觉可解释性方法
2.1 基于梯度的可解释性
基于梯度的可视化是通过将目标类别上的决策分数往原始图像上求取梯度得到,可视化结果如上图(左)。梯度作为一种局部信息,反映了局部位置的扰动对于决策分数的影响。我们常见的Saliency Map [6], 即通过该种方式得到。除此之外,近几年还出现多种基于梯度的改进方法,其中Smooth Gradient [2] 与Integrated Gradient [3] 最为著名,它们分别分析了原始梯度可能存在的一些问题,然后通过平滑和路径积分的方式,