【可视化CNN】《Visualizing and Understanding Convolutional Networks》深入解析

0 为什么选择这篇Paper?

  1. 2014年ECCV上的一篇经典文献:《Visualizing and Understanding Convolutional Networks》,可以说是可视化理解CNN领域的开山之作。
  2. 一般给出输入图像,晋国CONV-RELU-POOL-SOFTMAX/SVM得到Score,但中间内容对于我们来说是未知的
    在这里插入图片描述
    本文就是让炼丹师在调参或改动网络结构并提高最终的目标精度的时候,明白自己设计的CNN网络的每一层到底学习到了什么特征
  3. 自2014年发表至今有2000多的引用量,学习这篇文章,可以很好的站在可视化的角度来理解如何学习到精确的特征来提高你的精度,对于今后深入理解CNN有很大的帮助。
  4. 题外之言:深度学习作为人工智能领域的“黑(xuan)盒(xue)”,而CNN又作为深度学习中的又一大“黑(xuan)盒(xue)”,其已经在CV的诸多领域取得了极大的成功和进展。但是,至今没有人能够“打开黑盒”,从数学原理上予以解释。这对理论研究者,尤其是数学家来说当然是不可接受的,但换一个角度来说,我们终于创造出了无法完全解释的事物,这也未尝不是一种进步了!

今天我们讨论的重点:Visualizing ConvNet

1 Preview

1.1 我们能从Paper中学到什么?

  1. CNN的每一层输出的Map学习到了什么东西
  2. 通过反卷积网络方法,从可视化角度深入理解CNN
  3. make more smaller filter and more deeper network

1.2 本文的四个实验

1.2.1 Experiment 1: Visualization Issue

  • 从不同层中随机选取一组Feature map,并执行卷积步骤的反向过程:unpooling -> Relu -> Conv Filter (先前相对应卷积层的权值的转置)
  • 监控在训练epochs中的输出map
  • 使用visualization来构建一个更好的network
    在这里插入图片描述

1.2.2 Experiment 2: Occlusion Issue

遮挡输入图像中目标的部分图像。若model的预测精度受到影响,我们可以推断这个网络没有学习到目标的特别特征(也就是被遮挡的部分没有被学习到);若遮挡前后model对图像的预测精度没有影响,There’s a problem!
在这里插入图片描述

1.2.3 Experiment 3: Similarity Between Different Feature Map

实验二的更为细节版本,使用求平均灰度值的方块取遮挡图像,并计算其汉明距离(hamming distance),比较其feature map difference的相似度是多大。
在这里插入图片描述

1.2.3 Experiment 4: New Architecture<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值