12.19 densenets完结
首先是densenet的结构图。传统的神经网络层与层之间一般只有L个输出,而从图中可以看到而我们的这个新的网络有L(L+1)/2个输出。每层的输入都是拿前面所有层的features map作为输入,同样它的features map也作为所有下面层的输入。
陆陆续续花了几天时间读完了densenets论文,感受确是颇多,单单只是在分类这一模块中,模型已经进步了许多。不是仅仅只是传统的思路,单一的加多模型的层数。模型从最近的VGG16,Resnet,Highway Nets, GoogleNets, FractalNets, 到最新的DenseNets。很多网络都基于这么一个结论:如果每层之间更短的联系,并且更接近输入和输出,那么训练就更加有效。
VGG16虽然已经有非常好的性能,但是它的参数巨大,且训练非常慢,训练不有效。Highway Nets提供了一种新的思路,它用一种旁路(bypassing paths)的想法。ResNets继承了它的想法并发扬光大,它可以直接的连接两层并将上一层的特征,与上一层的输出通过简单的相加作为下一层的输入,并且在训练中随机地舍去一些层来加快训连效率。Googlenets与Resnets非常地像,但是Googlenets提供了一种新的加深网络深度的方法可,通过将特征图连在一起,加宽它的宽度。Fractals Nets提供了一种新的加快训练的方法,他将平行的几层随机组合,得到不同的随机深度。
最新的Densenets通过在一个模块中的dense connection,让每一层的输入都能由前面的所有层特征连在一起,并且每一层的输出都能作为后面所有层的输入。通过使用这种方法,会让信息和梯度流动更加