整体概述

前4个是目标分类的经典网络
Alexnet(现在用的少)

卷积核比较大
local response norm层后来被证明是无用的。
Vgg

卷积核都是3X3:细粒度特征提取。
特点:在maxpool后,把损失的特征弥补起来,用厚度翻倍弥补长和宽。
Vgg的时间会比Alexnet长很多,如Alexnet8小时,Vgg需要3天。
Resnet残差网络

对于问题:56层比20层的错误率要更高。
Resnet提出解决方案:在20层以后,当经过两次卷积,若结果不好就跳过第二层卷积,把之前的输入加回来。在残差网络中,每一层至少不会比前一层的学习效果差
