优化损失函数

Multi-Modal MRI Image Synthesis via GAN With Multi-Scale Gate Mergence

在这里插入图片描述

1 Few Shot Generative Model Adaption via Relaxed Spatial Structural Alignment

有限数据训练生成对抗网络 (GAN) 一直是一项具有挑战性的任务。一种解决方案是从一个在大规模源域上训练好的GAN 开始,用少量样本适应目标域,称为少样本生成模型适应。
然而,现有方法在极少的样本数设置(少于 10 个)中容易出现模型过度拟合和崩溃。为了解决这个问题,提出一种宽松的空间结构对齐(relaxed spatial structural alignment,RSSA)方法来校准目标生成模型。设计了一个跨域空间结构一致性损失,包括自相关和干扰相关一致性损失。它有助于对齐源域和目标域的合成图像对之间的空间结构信息。为了放松跨域对齐,将生成模型的原始潜在空间压缩到一个子空间。从子空间生成的图像对被拉得更近。定性和定量实验表明了方法的有效性。
源代码:https://github.com/StevenShaw1999/RSSA

2. Your Local GAN: Designing Two Dimensional Local Attention Mechanisms for Generative Models

引入新的局部稀疏注意力层,保留二维几何形状和局部性,用这种结构替换SAGAN的密集注意力层即可获得显着的FID、Inception score和视觉效果。https://github.com/giannisdaras

3. Dual Contrastive Loss and Attention for GANs

使用大规模图像数据集时,生成对抗网络 (GAN) 在无条件图像生成方面效果非常不错。但生成的图像仍然很容易被甄别出来,尤其是在具有高方差的数据集(例如卧室、教堂)上。

本文提出一种新的双重对比损失,并表明通过这种损失,判别器可以学习更通用和可区分的表示来激励生成质量。此外,重新审视了注意力并在生成器中对不同的注意力块进行了广泛的实验。发现注意力仍然是成功生成图像的重要模块,即使它在最近的先进模型中未使用。最后,研究了判别器中不同的注意力架构,并提出了一个参考注意力机制。通过结合这些措施,在几个基准数据集上将FID提高了至少 17.5%,在合成场景上获得了更显著的提升(在 FID 中高达 47.5%)。

写作

DCGAN的生成器和判别器都舍弃了CNN的池化层,判别器保留CNN的整体架构,生成器则是将卷积层替换成了反卷积层(或称转置卷积层)。

在判别器和生成器中在每一层之后都是用了BN层,有助于处理初始化不良导致的训练问题,加速模型训练,提升了训练的稳定性。
利用1*1卷积层替换到所有的全连接层。
在生成器中除输出层使用Sigmoid激活函数,其余层全部使用ReLu激活函数。
在判别器所有层都使用LeakyReLU激活函数,防止梯度稀疏。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值