如何更直观的理解GANs?

本文介绍了一种理解和可视化生成对抗网络(GAN)的新框架。该框架通过剖析和干涉两个步骤,帮助研究者从单元、实体对象和场景三个层面理解GAN内部机制。实验展示了如何使用该框架改善GAN生成质量,分析单元重要性和上下文关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ICLR 2019 《GAN DISSECTION: VISUALIZING AND UNDERSTANDING GENERATIVE ADVERSARIAL NETWORKS》

github

Demo

project page


在这里插入图片描述

从2014年GoodFellow发表了《Generative Adversarial Nets》后,生成对抗网络(GAN)逐渐称为深度学习领域一个极其热门的方向,很多的人前赴后继的投入到了GAN的研究中。有的人针对于最初提出的标准GAN中所存在的一些问题做出了改进,提出了一系列GAN的变种,如WGAN、LSGAN、EBGAN……也有的人推进了GAN在其他领域的应用,如进行风格迁移的CycleGAN、DualGAN、XGAN、StarGAN、CoGAN……,应用于生成超分辨率图像的BigGAN、LAPGAN、PGGAN、SRGAN、StackGAN、StyleGAN……,进行特征提取的VAEGAN、InfoGAN、BiGAN……,除了针对于GAN本身的改进,当然还有很多的研究者将其和NLP、RL等领域的问题相结合,也取得了不错的效果。

虽然在2014年后,GAN的发展有了显著的进步,但是仍然缺乏理解GAN工作机制的方法。虽然GAN可以生成高质量的图像,但是无从知道生成的结果在它的内部是如何表示的;不同的GAN的改进变种在论文的实验部分都显示了比将其作为实验基准的其他GANs效果好,但是无法从内部的结构来理解为何会造成效果的显著性提升(这里不着重考虑算力和数据量的差异)。因此,如何合理的可视化和理解GANs成为了一个急需解决的问题。

本文作者从其他网络模型(如CNN、RNN等)的可视化方法中得到启发,提出了一个新的分析框架,它可以实现从单元(unit)、实体对象(object)和场景(scene)三个不同的层级上,从低到高的理解GAN内部的工作机制。它的整个实现机制主要分为两步:

  • 剖析(Dessection):利用分割模型定义一组和实体对象相关联的可解释性单元
  • 干涉(Intervention):通过控制这些可解释性单元对实体输出效果的差异的影响,进而理解它们之间的因果牵连。

最后作者通过实验显示了如何使用该框架实现在不同层次、不同模型、不同数据集上内部表示的对比;如使用它来分析GANs生成结果质量不高的原因,进而通过某些方法来帮助GANs生成更好的结果;如何使用它来分析和某一具体相关联的多个单元之间的重要性差异;如何使用它来理解不同的实体之间的上下文关系。总的来说,作者希望该框架可以帮助研究者和实践人员更好的理解自己的GANs。

本文的重要性不仅在于针对生成对抗网络这个领域所作出的开创性工作,它还有助于理解其他生成模型的工作机理,从而更好的理解生成结果的产生过程。


下面我们就来跟着作者的思想欣赏一下他们所提出的这个方法,在此之前,先对下面将要用的符号做一些规定:

  • z z z z ∈ R ∣ z ∣ \mathbf{z} \in \mathbb{R}^{|z|} zRz ,表示采样自某个低维分布的噪声向量
  • G G G G : z → x G:z \rightarrow x G:zx,表示生成器
  • x x x x ∈ R H × W × 3 \mathbf{x} \in \mathbb{R}^{H \times W \times 3} xRH×W×3表示生成样本,其中 H × W H \times W H×W表示样本的尺寸, 3 3 3表示彩色图像的三通道
  • r r r:表示 G G G中间层特征的表示张量
  • c c c:表示输出实体的类别
  • U \mathrm{U} U:表示每个通道的特征图,包含了和某一输出实体相关联的单元的集合, U ‾ \overline{\mathrm{U}} U表示无关联的单元集合
  • u \mathrm{u} u :表示某一单元
  • P \mathrm{P} P:表示 r r r中的某一位置
  • U 、 P \mathbb{U} 、 \mathbb{P} UP:表示 r r r中单元 u u u和特征图的全集
  • ↑ \uparrow :表示上采样
  • S c ( x ) S_{c}(x) Sc(x):表示生成样本根据类 c c c的语义分割的部分
  • r u , p r_{\mathrm{u},\mathrm{p}} ru,p:表示关于某一实体类 c c c 的语义信息
  • t u , c t_{\mathrm{u},\mathrm{c}} tu,c:关于 c c c 的某个单元 u u u进行二值化的阈值

根据生成器的原理,有
r = h ( z )  and  x = f ( r ) = f ( h ( z ) ) = G ( z ) r=h(\mathbf{z}) \text { and } \mathbf{x}=f(\mathbf{r})=f(h(\mathbf{z}))=G(\mathbf{z}) r=h(z) and x=f(r)=f(h(z))=G(z)
同时为了更好的理解 r r r的哪些位置 P \mathrm{P} P的的单元 U \mathrm{U} U是和实体类型 c c c相关的,我们将 r r r分解为两部分:
r U , P = ( r U , P , r U ‾ , P ) \mathbf{r}_{\mathbb{U}, \mathrm{P}}=\left(\mathrm{r}_{\mathrm{U}, \mathrm{P}}, \mathrm{r}_{\overline{\mathrm{U}}, \mathrm{P}}\right) rU,P=(rU,P,rU,P)


Dissection

这是作者所提出的方法的第一步,总体思想是通过衡量实体类 c c c和对应的 r r r中的每个独立单元 u u u 的一致性来确定关于 c c c的显示表达单元。

下面是这一步的图示化过程:

在这里插入图片描述

  • 首先按照GAN正常的运行过程生成样本 X X X ,然后根据关注的语义利用语义分割模型得到分割后的结果 s c ( X ) s_{c}(X) sc(X)

  • 然后将 G G G中间层的表征向量 r r r 的每个单元 u u u 所代表的特征图 r u , p r_{\mathrm{u},\mathrm{p}} ru,p拿出,进行上采样并根据固定的标准 t u , c t_{\mathrm{u},\mathrm{c}} tu,c进行二值化

    upsampling:Justbilinear interpolation. Which threshold? It’s possible to do the analysis by just choosing a naïve fixed threshold such as the top 1% level for the unit, but the paper makes a slightly different choice that maximizes relative mutual information between the feature and the segmentation label being matched.)

  • 最后使用IOU来评估 u u u上采样、二值化得到的结果和 S c ( x ) S_{c}(x) Sc(x)之间的一致性

    Using it to quantify how well the network is at solving each segmentation problem.

IOU ⁡ u , c ≡ E z ∣ ( r u , P ↑ > t u , c ) ∧ s c ( x ) ∣ E z ∣ ( r u , p ↑ > t u , c ) ∨ s c ( x ) ∣ \operatorname{IOU}_{u, c} \equiv \frac{\mathbb{E}_{\mathbf{z}}\left|\left(\mathrm{r}_{u, \mathrm{P}}^{\uparrow}>t_{u, c}\right) \wedge \mathrm{s}_{c}(\mathrm{x})\right|}{\mathbb{E}_{\mathrm{z}}\left|\left(\mathrm{r}_{u, \mathrm{p}}^{\uparrow}>t_{u, c}\right) \vee \mathrm{s}_{c}(\mathrm{x})\right|} IOUu,cEz(ru,p>tu,c)sc(x)Ez(ru,P>tu,c)sc(x)

其中
t u , c = arg ⁡ max ⁡ t I ( r u , P ↑ > t ; s c ( x ) ) H ( r u , p ↑ > t , s c ( x ) ) t_{u, c}=\arg \max _{t} \frac{\mathrm{I}\left(\mathrm{r}_{u, \mathrm{P}}^{\uparrow}>t ; \mathbf{s}_{c}(\mathrm{x})\right)}{\mathrm{H}\left(\mathrm{r}_{u, \mathrm{p}}^{\uparrow}>t, \mathrm{s}_{c}(\mathrm{x})\right)} tu,c=argtmaxH(ru,p>t,sc(x))I(ru,P>t;sc(x))
t u , c t_{\mathrm{u},\mathrm{c}} tu,c取信息质量率(information quality ratio)的最大值,它是从提前选择好的单独的验证集中计算得来的,与当前训练的数据无关。

通过上述过程我们就得到了和实体类 c c c相关联的单元 u u u ,通常这些的单元会有多个,为了显示相对的重要性,需要将其进行按照IOU值的大小进行排序,顺序越靠前的自然和 c c c 的关联性越大。

但是在得到了一组相关的单元后,我们想知道哪些对于最后的输出样本是起到至关重要的作用呢?相关的不同的单元的组合又是如何影响最后的输出的?


Intervention

为了进一步回答上面的遗留问题,就需要进行第二个步骤:intervention。当找到了和具体的实体类别 c c c相关联的某些单元时,通过强制的控制某些单元的“开和关”来研究它们和 c c c之间的因果关系。

因此,按照前面的设置,当我们确定关闭某些单元时,就令 r U , P = 0 r_{U,P}=0 rU,P=0;当打开某些单元时,就令 r U , P = k r_{U,P}=k rU,P=k k k k这里是一个常数。然后重新分解 r r r得到:
O r i g i n a l   i m a g e : x = G ( z ) ≡ f ( r ) ≡ f ( r U , P , r U , P ‾ ) I m a g e   w i t h   U   a b l a t e d   a t   p i x e l s   P : X a = f ( 0 , r U , P ‾ ) I m a g e   w i t h   U   i n s e r t e d   a t   p i x e l s   P : X i = f ( k , r U , P ‾ ) Original \ image: x=G(z)\equiv f(r) \equiv f(r_{\mathrm{U},\mathrm{P}},r_{\overline{\mathrm{U}, \mathrm{P}}}) \\ Image \ with\ \mathrm{U}\ ablated\ at\ pixels\ \mathrm{P}:X_{a}=f(0,r_{\overline{\mathrm{U}, \mathrm{P}}}) \\ Image \ with\ \mathrm{U}\ inserted\ at\ pixels\ \mathrm{P}:X_{i}=f(k,r_{\overline{\mathrm{U}, \mathrm{P}}}) Original image:x=G(z)f(r)f(rU,P,rU,P)Image with U ablated at pixels P:Xa=f(0,rU,P)Image with U inserted at pixels P:Xi=f(k,rU,P)
其中 r U , P ‾ r_{\overline{\mathrm{U}, \mathrm{P}}} rU,P表示和 r r r无关的部分。

然后,这里使用了通过比较 x i x_{i} xi x a x_{a} xa 中树是否存在以及对所有位置和图像的平均效果来量化评估,即使用the average causal effect (ACE) :
δ U → c ≡ E z , P [ s c ( x i ) ] − E z , P [ s c ( x a ) ] \delta_{\mathrm{U} \rightarrow c} \equiv \mathbb{E}_{\mathbf{z}, \mathrm{P}}\left[\mathbf{s}_{c}\left(\mathrm{x}_{i}\right)\right]-\mathbb{E}_{\mathbf{z}, \mathrm{P}}\left[\mathbf{s}_{c}\left(\mathrm{x}_{a}\right)\right] δUcEz,P[sc(xi)]Ez,P[sc(xa)]
因为相关联的单元不止一个,因此需要确定的是一组可以使得 δ U → c \delta_{\mathrm{U} \rightarrow c} δUc值最大的单元集合 U \mathrm{U} U。然而,接下来又会遇到一个新问题:我们相关探究相关的不同的单元的组合是如何影响最后的输出,但是简单的穷举搜索所有的单元组合是不太现实的。所以作者这里引入了一个优化的连续干扰项 α ∈ [ 0 , 1 ] d \boldsymbol{\alpha} \in[0,1]^{d} α[0,1]d,,其中 α U \alpha_{\mathrm{U}} αU的每一维表示了对于 u u u的干涉程度。按照下面的设置,来求 δ U → c \delta_{\mathrm{U} \rightarrow c} δUc的最大值:
I m a g e   w i t h   p a r t i a l   a b l a t i o n   a t   p i x e l s   P : x a ′ = f ( ( 1 − α ) ⊙ r U , P , r U , P ‾ ) I m a g e   w i t h   p a r t i a l   i n s e r t i o n   a t   p i x e l s   P : x i ′ = f ( α ⊙ k + ( 1 − α ) ⊙ r U , P , r U , p ‾ ) O b j e c t i v e : δ α → c = E z , P [ s c ( x i ′ ) ] − E z , P [ s c ( x a ′ ) ] Image \ with\ partial\ ablation\ at\ pixels\ \mathrm{P}:\mathbf{x}_{a}^{\prime}=f\left((1-\boldsymbol{\alpha}) \odot \mathbf{r}_{\mathbb{U}, \mathbf{P}}, \mathbf{r}_{\mathbb{U}, \overline{\mathbf{P}}}\right) \\ Image \ with\ partial\ insertion\ at\ pixels\ \mathrm{P}:\mathbf{x}_{i}^{\prime}=f\left(\boldsymbol{\alpha} \odot \mathbf{k}+(\mathbf{1}-\boldsymbol{\alpha}) \odot \mathbf{r}_{\mathbb{U}, \mathbf{P}}, \mathbf{r}_{\mathbf{U}, \overline{\mathbf{p}}}\right) \\ Objective:\delta_{\boldsymbol{\alpha} \rightarrow c}=\mathbb{E}_{\mathbf{z}, \mathbf{P}}\left[\mathbf{s}_{c}\left(\mathbf{x}_{i}^{\prime}\right)\right]-\mathbb{E}_{\mathbf{z}, \mathbf{P}}\left[\mathbf{s}_{c}\left(\mathbf{x}_{a}^{\prime}\right)\right] Image with partial ablation at pixels P:xa=f((1α)rU,P,rU,P)Image with partial insertion at pixels P:xi=f(αk+(1α)rU,P,rU,p)Objective:δαc=Ez,P[sc(xi)]Ez,P[sc(xa)]
使用 L 2 L_{2} L2正则化来优化 α \alpha α :
α ∗ = arg ⁡ min ⁡ α ( − δ α → c + λ ∥ α ∥ 2 ) \boldsymbol{\alpha}^{*}=\arg \min _{\boldsymbol{\alpha}}\left(-\delta_{\boldsymbol{\alpha} \rightarrow c}+\lambda\|\boldsymbol{\alpha}\|_{2}\right) α=argαmin(δαc+λα2)
然后使用SGD来寻找结果,最后按照 α ∗ \alpha^{*} α对所有单元的组合进行排序,找出因果关系最大的单元集。

图示化过程如下所示


在这里插入图片描述

例如下图所示的实验结果,但我们去除的单元组合越多,树的数量越少,对应的右图中关于树的像素数量就越少,但留下的建筑的面积越大。


在这里插入图片描述


实验

作者在实验部分利用上面阐述的步骤研究了七个方面的问题。

  1. 研究和实体类相关联的单元所表示的特征是否和人所关注的特征一致


    在这里插入图片描述

    如上图所示,我们可以看出:在关于餐厅(dining room)的图像中,有大量的单元和桌子(table)相关联;而在关于客厅(living room)的图像中,相关联单元最多的是沙发(sofa),这样的结果也符合人类的判断准则。

  2. 研究在表示某一实体时,不同相关的单元的可解释性


    在这里插入图片描述

    如上图所示,利用语义分割模型得到的结果中,GAN所关注的是天花板、人、桌子、座位等;关于厨房的图像中,GAN关注的是天花板、窗户、椅子、桌子等……从中我们可以看出,GAN所重点关注的单元的组合和人的关注点是一致的。

  3. 研究网络的不同层次的单元和输出实体之间的关联性


    在这里插入图片描述

    如上图所示,当网络越深时,它所包含的单元所表达的语义信息和输出结果之间的关联越大,特别的在10层以上的单元主要是匹配局部的像素模式,如材质、颜色等。

  4. 研究不同的模型的单元的可解释性


    在这里插入图片描述

    如上图所示,随着模型质量的提高,可解释单元的数量也会增加。添加minibatch stddev statistics和pixelwise normalization对于效果都有很大的影响。

  5. 研究为什么有时GAN会产生不好的生成样本,以及如何改进其效果?


    在这里插入图片描述

    从图中可以看出,在图像质量不高的图像中,会有很多的artifact-causing units造成的伪影,当我们将其去掉后发现,生成的样本的质量有了显著的提高,并且超过了其他新的GAN的变体。

  6. 研究不同的单元对于生成图像的相对重要性


    在这里插入图片描述

    通过实验发现,在和某一实体相关联的诸多单元中,有些一处后只是会影响图像的质量,有些则根本无法移除。例如,我们可以移除会议室的窗户,但无法移除会议室的桌子、椅子。

  7. 研究插入的单元和原有单元之间的上下文关系


    在这里插入图片描述

    在图中的不同位置添加门时发现,在大多数位置不能添加门。可以添加门的位置用黄色框突出显示。右上条形图显示了门单元插入的平均因果效应,取决于干预位置的背景对象类。我们发现,GAN允许在建筑物中添加门,特别是在有窗户或砖块的合理位置。相反,在天空或树上触发一扇门是不可能的。Intervention为我们提供了一种方法来加强对GAN如何加强对象之间关系的洞察。例如,即使我们试图在第4层中添加一个门,如果对象不适合上下文,那么稍后可以否决该选择。

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值