【论文解读】EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

本文提出了EfficientNet,一种通过复合尺度方法平衡卷积神经网络(CNN)宽度、深度和分辨率的扩展策略。通过网格搜索确定的参数,EfficientNet在ImageNet上实现State-of-the-art的精度,同时减少参数数量和提高推理速度。这种方法不仅适用于EfficientNet,也适用于MobileNet和ResNet,验证了复合缩放的有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Google出品,ImageNet新的State-of-the-art

论文链接: https://arxiv.org/pdf/1905.11946.pdf
官方源码: https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet
第三方PyTorch源码: https://github.com/lukemelas/EfficientNet-PyTorch

1.介绍

本文的思路来源是,作者观察到通过扩大网络模型的方法,可以获得更好的精度。最常见的方法是增加网络深度或者宽度(通道数),还有一种不常见的但越来越流行的方法是通过增加图像分辨率(如Gpipe采用480*480的图像)来扩大模型的规模。因此作者思考是否有一种原则性的方法可以平衡上述三种扩展方向,使得网络经过同等规模的扩大后达到更好的精度和效率,如图所示。基于此,提出了一种简单有效的复合标度方法,利用网格搜索得到了一组固定的缩放系数分别对网络的宽度、深度和分辨率进行缩放。
模型扩展
本文可看做是对深度学习炼丹的丹方进行解析,对网络的深度、宽度与分辨率这三种成分的配比进行系统性的研究,在提出的EfficientNet-B0的基础上用此方法扩展网络,证明了该方法的有效性。而EfficientNet-B7在ImageNet上实现了84.4%的top-1 / 97.1%的top-5精度,超过现有最好的结果(文中为Gpipe),同时参数少8.4倍,推理速度快6.1倍,效果非常棒!同时也在MobileNet与ResNet上用此方法扩展,效果上得到了证实。

2.复合模型扩展

一个卷积层 i i i可以被定义为一个函数: Y i = F i ( X i ) Y_i = F_i(X_i) Yi=Fi(Xi),其中 F i F_i Fi是卷积操作, Y i Y_i Yi是输出的张量, X i X_i Xi是输入的张量且张量的形状为 &lt; H i , W i , C i &gt; &lt;H_i,W_i,C_i&gt; <Hi,Wi,Ci>

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值