卷积网络总结(2)------DenseNet
6、2017年DenseNet
(1)思路
在提出ResNet时做出了有这样的假设:若某一较深的网络多出另一较浅网络的若干层有能力学习到恒等映射,那么这一较深网络训练得到的模型性能一定不会弱于该浅层网络.通俗的说就是如果对某一网络中增添一些可以学到恒等映射的层组成新的网路,那么最差的结果也是新网络中的这些层在训练后成为恒等映射而不会影响原网络的性能.同样DenseNet在提出时也做过假设:与其多次学习冗余的特征,特征复用是一种更好的特征提取方式.
传统的前馈体系结构可以看作是具有一种状态的算法,这种状态从一个层传递到另一个层。每个层从其前一层读取状态并将其写入后续层。它改变状态,但也传递需要保留的信息。研究提出的密集网络体系结构明确区分了添加到网络的信息和保留的信息。密集网层非常窄(例如,每层12个过滤器),仅向网络的“集体知识”添加一小组特征映射,并且保持其余特征映射不变,并且最终分类器基于网络中的所有特征映射做出决策
先给出DenseNet的整体架构,如下图:

(2)密集连接
ResNet通过前层和后层的“

本文介绍了DenseNet的密集连接思想,强调了特征复用和降低参数冗余的重要性。DenseNet通过通道拼接实现前后层信息高效传递,每个层能直接从损失函数获取梯度,有助于训练更深的网络并具有正则化效果。增长率为特征图数量,影响网络更新信息量。实验显示早期层特征可能被深层使用,而过渡层可能存在冗余特征。
最低0.47元/天 解锁文章
1181

被折叠的 条评论
为什么被折叠?



