Fast, Accurate and Lightweight Super-Resolution with Neural Architecture Search

本文探讨了XiaomiAI利用EA算法从大量候选模型中筛选最优神经网络结构的方法。通过不完全训练的模型评估,发现了dense连接并非越多越好,以及在SR任务中,block的差异性对效果的提升。尽管假设模型在不完全训练时的表现能预测完全训练后的表现,但此研究仍对网络结构探索有所贡献。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Method

这篇文章是Xiaomi AI发表的,同样是从减小网络参数和运算量出发(当然也保持了相当的准确性),在一个大的候选集中,通过EA算法寻找最优解。文章惊人的训练(imcomplete)了多达10000个神经网络,并从中选择了4个效果最优的模型,在综合考虑算法复杂程度和效果的情况下达到了state-of-the-art。

Comment

文章在模型上面并没有创新,但是利用了Tesla V100强大的计算能力后,也挖掘到了一些比较别致的内容:

  • 并不是网络中的dense连接越多越好。
  • 在SR中的block具有差异性可以取得更好的效果。

因为文章在筛选的过程中,是以不完全训练(imcomplete)的模型作为候选集的,所以文中有一个非常重要的假设:模型在不完全训练时的好坏能表征模型在完全训练时的好坏。其实这是一个非常强烈的假设。这样说的原因是模型在不完全训练时的好坏和其收敛速度有直接相关。收敛速度快的模型在不完全训练时当然会比收敛速度慢的模型更好,但是在完全训练的情况下,两个模型有可能性能差别不大,如下图所示。
此处出于学术目的使用该图像
但是,在承认这个比较基本的设定之后,该文章确实是为网络结构的探索做出了贡献,特别是上面所提到的两点发现。

声明

文中使用的图像来自互联网,并仅用于学术目的。在此感谢图像的提供者,如果提供者对改图像的使用存在异议,请联系作者:1300288499@qq.com。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值