反向 Dropout,韩松团队最新工作NetAug:提高Tiny神经网络性能的新训练方法

​作者丨happy
编辑丨极市平台
本文首发于极市平台,转载请获得授权并标明出处。

论文链接:https://arxiv.org/abs/2110.08890

TinyNN的福音:韩松团队提出针对TinyNN推理无损涨点的新型训练方案NetAug。本文从正则技术的作用以及TinyNN与大网络的容量角度出发,分析了为何正则技术会影响TinyNN的性能,进而提出了适用于TinyNN的新型训练方案NetAug。在ImageNet分类任务上,NetAug可以提升MobileNetV2-tiny性能达2.1%

原文地址:反向 dropout!韩松团队最新工作 NetAug:提高 Tiny 神经网络性能的新训练方法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值