前沿
在CV领域,我们需要熟练掌握最基本的知识就是各种卷积神经网络CNN的模型架构,不管我们在图像分类或者分割,目标检测,NLP等,我们都会用到基本的CNN网络架构。
CNN从最初的2012年AlexNet横空出世到2014年VGG席卷世界以及2015年ResNet奠定了该领域的霸主地位,网络模型变得越变越深,而且也得到证明,越深的网络拟合效果越好,但网络相应的参数量计算量都极速增加,不利于技术的推广和应用。因此,一些轻量级的网络结构也慢慢随之出现,比如MobileNet系列,ShuffleNet系列,以及ResNext、DenseNet、EfficenceNet等模型,他们都互相吸取彼此的优点,不但降低了参数量或者计算量,同时分类精度更高,因而受到了更多的关注。接下来我们就对CNN的各种网络结构以及他们的优缺点进行一次详细的解读!
AlexNet(2012)

1、增加了relu非线性激活函数,增强了模型的非线性表达能力。成为以后卷积层的标配。
2、dropout层防止过拟合,成为以后fc层的标配。
3、通过数据增强,来减少过拟合。
4、引入标准化层(Local Response Normalization):通过放大那些对分类贡献较大的神经元,抑制那些对分类贡献较小的神经元,通过局部归一的手段,来达到作用。
VGG(2014)

论文的主要创新点在于:
1、用3x3小卷积核代替了5x5或者7x7的卷积核
2、基于ALexnet加深了网络深度,证明了更深的网络,能更好

本文回顾了CNN模型的发展历程,从AlexNet的开创性工作到VGG、GoogleNet、ResNet的深化,再到轻量级网络如MobileNet、ShuffleNet的兴起。探讨了各模型的创新点、解决的问题及对后续研究的影响。
最低0.47元/天 解锁文章
1340

被折叠的 条评论
为什么被折叠?



