有影响力的分类工具与迁移学习应用
1. 图像分类网络回顾
在图像分类领域,历年的ILSVRC竞赛催生了众多优秀的卷积神经网络(CNN)架构。2012年的冠军是AlexNet,2014年则是VGGNet和GoogLeNet占据主导。而2013年的竞赛,ZFNet拔得头筹。不过,ZFNet的架构创新性不足,后续也较少被复用。但它的创造者Matthew Zeiler和Rob Fergus在CNN可视化方面做出了重要贡献,他们开发并应用了诸如反池化(unpooling)和转置卷积(transposed convolution,也称为反卷积deconvolution)等操作,这有助于打开CNN的“黑盒”,揭示其内部处理过程,进而优化超参数、提升性能。
2. ResNet架构详解
2.1 ResNet概述
ResNet(残差网络)由微软的Kaiming He等人开发,是解决CNN学习问题的有效方案。它在2015年的ILSVRC竞赛中夺冠,凭借其独特的残差模块,为构建极深网络提供了高效途径,在性能上超越了像Inception这样的大型模型。
2.2 动机
在图像分类及其他识别任务中,增大网络规模是一种有效的策略。然而,随着网络深度的增加,训练难度也随之增大,除了梯度消失/爆炸问题外,还出现了性能退化现象。即随着网络层数的增加,CNN的准确率并非线性提升,反而会出现饱和甚至下降,训练损失也会异常减小,这并非过拟合所致。例如,对比18层和34层的CNN,34层网络在训练和测试阶段的表现都不如18层网络。ResNet的提出就是为了解决这一问题,构建既深又高效的网络。
通过模型平均(应用不同深度的ResNet模
超级会员免费看
订阅专栏 解锁全文
2012

被折叠的 条评论
为什么被折叠?



