深度篇—— Deep Learning 经典网络 model 发展史(三) 细说 ZF-Net 结构和特点

本文详述2013年ImageNet挑战赛冠军网络ZF-Net,它是基于AlexNet微调的模型,通过反卷积和反池化来观察特征图效果,提升了性能。ZF-Net调整了第一层滤波器大小和步幅,前层使用小卷积核,保留更多特征。此外,网络揭示了层次化的特征学习,并通过遮挡实验展示了深度对特征区分性的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

返回主目录

返回 Deep Learning 经典网络 model 发展史 目录

上一章:深度篇—— Deep Learning 经典网络 model 发展史(二) 细说 AlexNet 结构和特点

下一章:深度篇—— Deep Learning 经典网络 model 发展史(四) 细说 VGG16 结构和特点

 

本小节,细说 ZF-Net 结构和特点,下一小节细说 VGG16 结构和特点

 

论文地址:Visualizing and Understanding Convolutional Networks

 

二. 经典网络(Classic Network)

3. ZF-Net

ZF-Net 是 2013 年 ImageNet 分类任务的冠军,其网络结构没有太大的改进,只是调节了参数,将大的卷积核拆小了些,而性能较 AlexNet 提升了不少。

(1). 网络描述:\large input(-1, \; 224, \; 224, \; 3)

 

   网络结构:

   反卷积、反池化结构:

      ZF-Net 使用了 反卷积 、反池化 来查看 提取的特征图效果。并参考这些效果图,进行调参。

 

(2). ZF-Net 的特点:

   ①. ZF-Net 是基于 AlexNet 进行微调的

      a. 差异表现在 AlexNet 用了两块 GPU 的稀疏连接结构,而 ZF-Net 只用了一块 GPU 的稠密连接结构。

      b. 改变了 AlexNet 的第一层:即将滤波器的大小 11 \times 11 变成 \large 7 \times 7,并且将步幅 \large 4 \times 4 变成了 \large 2 \times 2

   ②. ZF-Net 与 AlexNet 相比,前面的层使用了更小的卷积核,和更小的步幅,保留了更多的特征。

   ③. 使用反卷积,可视化 feature map。通过 feature map 可以看出,特征分层次体系结构。前面的层学习的是物理轮廓、边缘、颜色、纹理等特征,后面的层学习的是和类别相关的抽象特征。越是高层的特征,其用来做分类的性能越好;而低层的特征,则用来打框的性能更好。

   ④. 通过遮挡,找出了绝对图像类别的关键部位。通过实验,说明了深度增加时,网络可以学习到更具区分的特征。

   ⑤. 网络训练时,低层参数收敛快,越是高层,则需要越长的时间训练,才能收敛。

 

 

 

                  

 

返回主目录

返回 Deep Learning 经典网络 model 发展史 目录

上一章:深度篇—— Deep Learning 经典网络 model 发展史(二) 细说 AlexNet 结构和特点

下一章:深度篇—— Deep Learning 经典网络 model 发展史(四) 细说 VGG16 结构和特点

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值