生成清晰图像

本文探讨了华人博士首次采用Transformer构建的TransGAN,一种利用自注意力机制的生成对抗网络。文章关注于解决GAN训练的不稳定性问题,通过逐像素生成和分阶段提高分辨率,降低自注意力成本,同时借鉴CNN中稳定训练策略。

生成清新图像:(attention is really becoming [all you need])
1.利用卷积,提取清晰图像的像素
2.华人博士生首次尝试用两个Transformer构建一个GAN

构建一个GAN,又称为TransGAN
特点:GAN,训练本身具有较高的不稳定性

transformer编译器为基础块,并尽量最小程度的改变。编码器有两部件组成。
第一部件:多头自注意力模块构成
第二部件:GELU非线性的前馈 MLP(多层感知器)
#在两个部件之前均使用归一化,残差连接

内存友好的生成器
问题:NLP中的每个transformer将每个此作为输入,如果以类似的 方法通过堆叠Transformer编码器
来逐像素地生成图像,则低分辨率图像可能导致长序列以及更高自注意力开销。
答案:
一是:避免过高的开销
二是:受CNN的GAN中常用设计理念的启发,在多个阶段迭代地提升分辨率
他们的策略是逐步增加输入序列,并减低嵌入维数

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值