Self-Supervised GANs via Auxiliary Rotation Loss

       条件GAN处于自然图像合成的前沿。这种模型的主要缺点是需要标记数据。在这项工作中,我们利用了两种流行的无监督学习技术,对抗训练和自监督,并朝着弥合有条件和无条件GANs之间的差距迈出了一步。自监督的作用是鼓励判别器学习到在训练中不会忘记的有意义的特征表征。在相同的条件下,自监督GAN实现了与最先进的条件对等体相似的性能。
       GAN:生成对抗网络(GANs)是一类无监督的生成模型[1]。GANs包括在对抗游戏中训练一个生成器和鉴别器模型,使得生成器学习从期望的数据分布中产生样本。训练GANs具有挑战性,因为它涉及到在高维参数空间中搜索非凸博弈的纳什均衡。在实践中,gan通常使用交替随机梯度下降法进行训练,这种方法通常不稳定且缺乏理论保证[2]。因此,训练可能表现出不稳定性、发散性、周期性行为或模式崩溃[3]。训练不稳定的一个主要原因是发生器和鉴别器在非稳定环境中学习。特别地,鉴别器是一个分类器,其中一个类别(伪样本)的分布在训练期间随着生成器的改变而改变。在不稳定的在线环境中,神经网络会忘记以前的任务[11,12,13]。如果鉴别器忘记了先前的分类边界,训练可能变得不稳定或循环。
       受上述挑战的激励,我
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值