EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

本文介绍Google投稿ICML 2019的EfficientNet。指出对网络缩放可提升模型准确率,作者认为三种缩放等比例进行效果最佳,能提升精度并降低参数量。还搜索了适合的baseline模型,训练用了新trick,该方法在latency提升显著,对工业应用友好。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本次介绍一篇Google投稿与ICML 2019的工作:EfficientNet
对网络进行缩放可以提升模型准确率,常见的方法有三种: 深度(#layers) \ 宽度(#channels) \ 输入分辨率。这三种缩放按照何种比例进行缩放能达到更好的效果尚未研究。作者三种缩放等比例进行缩放最佳,在提升精度的同时可以降低模型参数量。在ImageNet上的性能如图ImageNet

方法

作者指出,三个可缩放的影响因素应该按照如下公式所示的比例进行缩放。满足 α ∗ β 2 ∗ γ 2 ≈ 2 \alpha*\beta^2*\gamma^2\approx2 αβ2γ22是为了让总计算量按照 2 ϕ 2^\phi 2ϕ倍增长.
在这里插入图片描述
除了上述缩放规律外, 作者还搜索了一种适合该方法的baseline 模型。在模型搜索时考虑了优化准确率和模型计算量。

模型训练

在训练过程作者用了几个最近新提出的trick,在刷竞赛涨点的时候值得关注。
在这里插入图片描述

总结

感谢作者的工作, 作者验证了对模型缩放,深度(#layers)\宽度(#channels)\输入分辨率`同时缩放效果最佳。在latency 的提升上十分显著,这一点在工业应用上十分友好。latency短了之后理论上来说模型收敛所花的时间应该也更短,不过具体还要测试之后才知道。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Tinet-

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值