生成对抗网络&sigmoid

探讨在生成对抗网络(GAN)中使用Sigmoid激活函数导致的梯度消失问题,及其对训练过程的影响,特别是在生成器和辨别器能力不平衡时的表现。

GAN论文:https://arxiv.org/abs/1406.2661

sigmoid

sigmoid/tanh作为映射函数,很好的把输出限制到目标区间,但是随之带来的问题是反向传播的收敛问题——梯度消失。

f ( x ) = s i g m o i d ( x ) f(x) = sigmoid(x) f(x)=sigmoid(x)
∇ f ( x ) = s i g m o i d ( x ) [ 1 − s i g m o i d ( x ) ] \nabla f(x) = sigmoid(x)[1-sigmoid(x)] f(x)=sigmoid(x)[1sigmoid(x)]
∇ f ( x ) = f ( x ) [ 1 − f ( x ) ] \nabla f(x) =f(x)[1-f(x)] f(x)=f(x)[1f(x)]

GAN

以生成对抗网络为例。
在论文中,对算法的伪代码描述如下:
生成器与辨别器的训练过程
如果在 G G G D D D中使用sigmoid激活函数,那在训练的收敛会出现问题。
以辨别器 D D D为例:

辨别器 D D D:

假设 D D D的最后一层激活函数为 s i g m o i d sigmoid sigmoid。未经过激活时的值为 D u a c t D_{uact} Duact,即

D a c t = s i g m o i d ( D u a c t ) D_{act}=sigmoid(D_{uact}) Dact=sigmoid(Duact

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值