笔记——Learning Transferable Architectures for Scalable Image Recognition

本文探讨了通过Neural Architecture Search (NAS)框架在CIFAR-10数据集上寻找最优网络结构,并将其应用于ImageNet数据集,实现了模型性能提升1.2%,同时减少了28%的计算成本。研究定义了Normal Cell和Reduction Cell,优化目标包括细胞内部结构和层的数量。结果显示,NAS框架找到的结构在任务迁移和模型压缩中表现出色。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这里写图片描述

主要思想:

​通过NAS(Neural Architecture Search Framework)在CIFAR-10 dataset上找到最优的网络结构,再扩展到ImageNet dataset上。
​模型提升——​ This paper 1.2%better computer cost: a reductionof 28%

定义优化问题:
  • 定义两种类型的convolution layer:
    ​ a. Normal Cell: 输入输出的feature map大小相同
    ​ b. Reduction Cell: 输出feature map height/2, width/2
  • 上述两种layer中可以包含如下操作:

这里写图片描述

  • 整体架构如Figure2所示
    每当feature map大小减小一半,filter个数加倍2x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值