ICCV 2019| Auto GAN 论文解读,神经网络结构搜索 + 生成对抗网络

AutoGAN是ICCV 2019上的一篇论文,首次将神经网络结构搜索(NAS)应用于生成对抗网络(GAN)。文章解决了在搜索过程中GAN的稳定性问题,仅搜索生成器结构,同时动态重置防止模式塌陷。实验表明,AutoGAN在CIFAR-10和STL-10数据集上表现良好,为GAN的自动化设计开辟了新途径。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

AutoGAN: Neural Architecture Search for Generative Adversarial Networks

生成对抗网络(GAN)可以用于生成、风格迁移、数据增强、超分辨率等任务。今天介绍一篇 ICCV 2019 的 paper: “AutoGAN: Neural Architecture Search for Generative Adversarial Networks”。这篇文章第一次把 NAS 和 GAN 结合,想要用神经网络结构搜索(NAS)的方法搜一个GAN 的网络结构。

作者是来自 Texas A&M University 和 MIT-IBM Watson AI Lab 的 Xinyu Gong, Shiyu Chang, Yifan Jiang, Zhangyang Wang,代码开源在这里

作者指出,将 NAS 和 GAN 结合,会遇到下面的问题:
问题1: GAN 由生成器 G 和判别器 D 组成。那么应该先固定住其中一个的结构,搜另一个吗?还是说这两个应该一起同时搜呢?

如果先固定一个搜另一个,可能会导致两者之间的不平衡;而如果两个一起搜,GAN 的训练不稳定,可能会遇到 Mode collapse 之类的问题。

作者的解决方法是: 只搜 G ,但是 D 并不是一成不变的。当 G 变的越来越深的时候, D 也会堆叠一些预先确定的 block 来变深。

问题2: 没有一个好的评价指标来给搜索过程提供反馈。
GAN 常用的指标是 Inception score (IS) 和 FID score,由于 FID score 计算比较慢,作者就选择用 Inception score 作为 RL 的 award。

搜索空间

下面介绍 AutoGAN 的搜索空间。作者采用了 Multi-Level Architecture Search (MLAS) 的策略,就是生成器由不同的 cell 组成,在搜索的时候一个 cell 对应一个 RNN controller 。搜索空间如下图所示:

第 s 个 cell 的搜索空间就可以由一个形状为 (s+5) 的元组 ( s k i p 1 , . . . , s k i p s , C , N , U , S C ) (skip_1, ..., skip_s, C, N, U, SC) (s

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值