- 博客(4)
- 收藏
- 关注
原创 Grad-CAM论文阅读
本文提出了一个基于CNN的视觉可解释性方法,使用梯度来求某个类别线性分数相当于每个类别最后的偏导数的权重。通过权重和最后一层卷积层线性组合,获得初步的定位图(粗粒度)。适用于各个CNN模型。本方法可以获得图片关注区域。各种神经网络表现不错,但无法介绍,在许多需要安全谨慎的行业不能使用,如无人驾驶,医疗。我们需要构建一个可以解释,透明的模型。高精度和可解释性一定程度上是互斥的。之前的系统是由人的经验主观设置的模块,可解释性高。目前人工智能是端到端的黑箱训练,由电脑训练出的。
2024-12-27 14:39:45
336
1
原创 【无标题】
一·文章主要聚焦于对CNN的可解释分析,作者发现GAP(全局平均池化)在图片上的定位问题。发现卷积操作可以保存位置信息,但是使用全连接层会使位置信息丢失。二·CAM热力图:通过GAP来替代全连接层,可以保留位置信息,比如图片右上角有小狗,那么在CNN最后一层的属于小狗的chanal右上角数值会最大。公式是把最后一次卷积层输出的featuremap中,第k个chanal(14*14)的x,y坐标上的值加起来。通过与wi(各个chanal通过GAP后的权重)本文公式是。
2024-12-16 14:01:17
150
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人