1. 神经元 VS feature map VS 卷积核
神经元:feature map 的大小
feature map:输入图像经过卷积核卷积后的各像素点的组合
卷积核: 属于共享参数
2. 权值共享
权值共享:同一个feature map中神经元使用同一个权值,可训练参数只与卷积核大小、个数、通道有关
3. 感受野 and 计算量
- 计算量: 考虑可训练参数、连接数
可训练参数:
卷积层:(卷积核面积 + 1 )* 卷积核个数
下采样层:(1 + 1) * 卷积核个数
连接数:神经元个数(feature map大小) * [(卷积核面积 + 1)* 卷积核个数]
- 感受野
从CNN可视化的角度来讲,就是输出feature map某个节点的响应对应的输入图像的区域就是感受野
计算方法:参考 https://blog.youkuaiyun.com/program_developer/article/details/80958716
4. 卷积层 VS 全连接层
- 卷积层
假设输入图像为3*28*28,通过20个卷积核,可以得到20*24*24的卷积层,这20个卷积层是由每一个卷积核与输入图像的三通道进行卷积,然后求和。
(参考:多通道(比如RGB三通道)卷积过程 https://blog.youkuaiyun.com/u014114990/article/details/51125776)
- 全连接层
最后一层池化层为 20*12*12, 可以看成(20*12*12)*1的列向量,通过固定权值的行向量100*(20*12*12),得到100*1 的全连接层神经元;
(参考:全连接层与卷积层的区别 https://blog.youkuaiyun.com/jiachen0212/article/details/82496401)