深度学习(生成式模型)——ADM:Diffusion Models Beat GANs on Image Synthesis

本文介绍了扩散模型中的关键组件,如UNet结构、TimestepEmbedding以及globalattentionlayer,这些如何影响模型的性能和图像生成质量。Classifierguidance方法也被提及,展示了在ImageSynthesis任务中采用不同策略优化模型效果的实验结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

在前几篇博文中,我们已经介绍了DDPM、DDIM、Classifier guidance等相关的扩散模型基础,从本节博客开始,将介绍一些经典偏应用类的文章。

《Diffusion Models Beat GANs on Image Synthesis》是openAI在2020年发表的一篇文章。文章从模型结构入手,通过扩大模型容量,在图像生成任务上击败了当时的SOTA Big GAN。

此外还提出了Classifier guidance,用于控制扩散模型生成指定类型的图像,具体推导流程可以查阅前文

本节博客将重点总结模型结构,相应的代码可在此处查阅。

基础模型结构

Unet结构+timestep embedding+global attention layer是扩散模型常用的backbone。本节将对上述三个结构做个简单介绍。

UNet结构

UNet结构由encoder和decoder两个神经网络组成。如下图所示,encoder对图像进行downsample,deocder对图像进行upsample,encoder和decoder之间存在skip connection。encoder和decoder均由residual layers堆叠而成。
在这里插入图片描述

Timestep Embedding

在扩散模型中,通常需要进行 T T T次迭代。类似于位置编码,扩散模型的每次迭代都有一个timestep embedding,用于告知模型目前是第几次迭代,其形式通常为一个常数vector,不同迭代次数的timestep embedding通常不桶。添加timestep embedding的方式有很多,可以通过concat的方式嵌入到每一个residual layers中,也可以通过add的方式嵌入到每一个residual layers的输出中。

如下代码所示,在ADM中,timestep embedding在经过一层learning层处理后,通过add的方式嵌入到每个residual layers中。
在这里插入图片描述

关于为什么需要timestep embedding

扩散模型每轮迭代的输入图像所属的输入分布类型是不一致的,针对不同的输入分布,扩散模型的输出分布也会不同。但是模型要意识到当前图像处于哪种输入分布是件很难的事情,当两个输入分布近似时,模型的输出可能也会近似,这将很大程度影响生成图像的质量。例如生成一双手,在迭代初期,模型的输出应该是手指的轮廓等粗粒度信息,而迭代后期,模型的输出应该是手指指甲的光泽度的细粒度信息,如果迭代前后期的输入分布近似,那么在迭代的后期模型将无法输出指甲光泽度等细粒度的信息,生成的图像将不够逼真。

而timestep embedding的引入相当于把不同步骤的输入分布做了个区分。模型在学习的过程中,这种强烈的信号是不会被忽视的,输出分布的形式大概率会与timestep embedding强烈关联。当timestep取值较小时,模型输出的将是一些粗粒度信息,而随着timestep的取值逐渐变大,模型的输出也会逐渐变细。

global attention layer

global attention layer在ADM中其实就是self attention。假设第N层有 T T T个大小为 H ∗ C H*C HCfeature map,将一个feature map看成一个token,则对应的矩阵大小为 ( H ∗ C ) ∗ T (H*C)*T (HC)T,在该矩阵上使用self attention,具体的代码如下:
在这里插入图片描述

如何提升diffusion model生成图像的质量

在上一节中,我们已经总结了ADM的基础模型结构,在本节中,我们将总结论文中提到能有效提升diffusion model生成图像质量的方法。

论文在五个方面进行了消融实验
在这里插入图片描述
在128*128分辨率的imagenet图像上训练,batch size设置为256,采样时的迭代轮数为250,对应的结果如下:
在这里插入图片描述
可以看到单独加深网络、或添加更多的self attention head、或在更多层使用self attention、或使用big gan的残差模块都可以提升diffusion model生成图像的质量。

此外,作者探究了local attention和global attention对性能提升的影响。不论是local attention还是global attention,都是使用self attention作为注意力策略,但是进行注意力计算的feature map的个数不同。例如某一层共有16个特征图,特征图分辨率为16*16=256,将一个特征图看成一个token,则该层的特征图可转换为16*256大小的矩阵,global attention将在16*256大小的矩阵上进行self attention计算,而local attention则可将16*256大小的矩阵划分为4个4*256大小的矩阵,接着分别在4*256大小的矩阵上进行self attention操作。

作者探究了单独添加更多的global attention head,或者使用local attention head对生成图像质量的影响,最终发现两者均可以提升生成图像的质量,结果如下:
在这里插入图片描述

Classifier guidance

Classifier guidance用于控制扩散模型生成指定类型的图像,具体推导流程可以查阅前文

实验结果

ADM模型最终采取的配置为

For the rest of the architecture, we use 128 base channels, 2 residual blocks per resolution, multi-resolution attention, and BigGAN up/downsampling, and we train the models for 700K iterations.We opt to use 64 channels per head as our default.

实验结果
在这里插入图片描述

### 关于扩散模型的相关论文 #### Diffusion Models Beat GANs on Image Synthesis 该研究展示了扩散模型在图像合成方面超越了GAN的表现。通过一系列实验验证,证明了扩散模型不仅能在质量上胜过GAN,在多样性方面也有显著优势[^1]。 #### Classifier-Free Diffusion Guidance 此工作提出了无需分类器指导的扩散模型方法论,简化了传统依赖额外分类网络实现条件控制的方式,提高了生成效率与效果稳定性。 #### Denoising Diffusion Implicit Models (DDIM) DDIM引入了一种新的视角来看待扩散过程——即作为隐式模型下的去噪操作。这种方法允许更灵活地调整采样步数而不影响最终输出的质量,并且可以得到具有不同属性的结果集[^3]。 #### Scalable Diffusion Models with Transformers 为了应对大规模数据集带来的挑战,这项研究表明如何利用Transformer架构构建可扩展性强、计算资源消耗低的大规模扩散模型。这为解决实际应用场景中的复杂问题提供了可能途径。 #### Denoising Diffusion Probabilistic Models (DDPM) DDPM定义了一个基于马尔科夫链结构的生成流程,其中前向传播逐渐增加噪音直到完全随机化输入;而后向传播则相反,旨在从未知状态恢复原始信号。这种机制被广泛认为是现代扩散模型的基础之一[^2]。 ```python import torch.nn as nn class DDPM(nn.Module): def __init__(self, timesteps=1000): super().__init__() self.timesteps = timesteps def forward(self, x_0): # 前向过程:加噪声 pass def reverse(self, noisy_x_t, timestep): # 后向过程:去除噪声 pass ``` #### LafitE: Latent Diffusion Model with Feature Editing LafitE提出了一套完整的框架用于异常检测任务。它结合了潜在空间上的扩散建模技术和特征级编辑策略,在保持良好泛化能力的同时实现了精准的目标定位功能[^4]。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值