Denoising diffusion implicit models 阅读笔记

文章介绍了DenoisingDiffusionImplicitModels(DDIMs),一种在保留DDPM训练网络的基础上,通过非马尔可夫的前向过程和子序列采样加速生成过程的方法。DDIMs通过调整随机性和子序列策略,提高了采样效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Denoising diffusion probabilistic models (DDPMs)从马尔科夫链中采样生成样本,需要迭代多次,速度较慢。Denoising diffusion implicit models (DDIMs)的提出是为了在复用DDPM训练的网络的前提下,加速采样过程。
加速采样的基本思路是,DDPM的生成过程需要从[T,⋯ ,1][T,\cdots,1][T,,1]的序列逐步采样,DDIM则可以从[T,⋯ ,1][T,\cdots,1][T,,1]的子序列采样来生成,通过跳步的方式减少采样的步数。比如DDPM网络原始训练包含1000步,但是采样时可以只从1000步中均匀的选出50步,用这50步采样出图像。
但事实上在后面的实现中,比如diffusers库中,DDPMScheduler也是可以从子序列采样的。

非马尔科夫的前向过程

DDPM中推理分布(inference distribution)q(x1:T∣x0)q(\mathbf x_{1:T}|\mathbf x_0)q(x1:Tx0)是固定的马尔科夫链。DDIM的作者考虑构造新的推理分布,该推理过程和DDPM优化相同的目标,但能产生新的生成过程。
在这里插入图片描述
考虑一个推理分布族Q,由实向量σ∈R≥0T\sigma \in \mathbb{R}^T_{\ge 0}σR0T索引:
在这里插入图片描述
根据上面的定义有qσ(xt∣x0)=N(αtx0,(1−αt)I)q_{\sigma}(\mathbf x_t | \mathbf x_0) = \mathcal{N}(\sqrt{\alpha_t}\mathbf x_0, (1-\alpha_t)I)qσ(xtx0)=N(αtx0,(1αt)I)
对应的前向过程也是高斯分布:
在这里插入图片描述
通过上面定义的推理过程,前向过程变成了非马尔科夫的,因为每一步都依赖x0\mathbf x_0x0
参数σ\sigmaσ控制前向过程的随机性,如果σ→0\sigma \rightarrow 0σ0,那么在已知x0\mathbf x_0x0和其中任一个xt\mathbf x_txt的情况下,xt−1\mathbf x_{t-1}xt1是固定的。

根据上面的推理过程,定义需要学习的生成过程为:
在这里插入图片描述
其中
在这里插入图片描述

根据上面的定义的推理过程和生成过程,优化的目标是
在这里插入图片描述
可以证明该优化目标和特定情况下DDPM的优化目标相同。

逆向生成过程的采样方法如下:
在这里插入图片描述
选择不同的σ\sigmaσ值会导致不同的生成过程,但它们使用相同的ϵθ\epsilon_{\theta}ϵθ模型。
如果σt=(1−αt−1)/(1−αt)(1−αt/αt−1)\sigma_t=\sqrt{(1-\alpha_{t-1})/(1-\alpha_{t})}\sqrt{(1-\alpha_{t}/\alpha_{t-1})}σt=(1αt1)/(1αt)(1αt/αt1),那么前向过程又变成了马尔科夫的,生成过程和DDPM一样。
如果σt=0\sigma_t=0σt=0,那么随机噪声前的系数是0,x0\mathbf x_0x0xT\mathbf x_TxT之间的关系是固定的,这属于隐概率模型(implicit probabilistic model)。因此,作者把这种情况称为denoising diffusion implicit model (DDIM)。

加速

为了加速采样,作者考虑下面的推理过程:
在这里插入图片描述
其中τ\tauτ是长度为S的[1,⋯ ,T][1,\cdots,T][1,,T]的子序列,τS=T\tau_S=TτS=Tτ‾:={1,…,T}\τ\overline{\tau}:=\{1,\ldots,T \} \backslash \tauτ:={1,,T}\τ是除去子序列剩下的序号。
定义
在这里插入图片描述该推理分布对应的生成过程如下:
在这里插入图片描述
定义需要学习的概率为:
在这里插入图片描述
根据上面的定义的推理过程和生成过程,优化的目标是
在这里插入图片描述
可以证明该优化目标和特定情况下DDPM的优化目标相同。
因此,可以利用DDPM训练的网络,但是从子序列采样生成图像。

### DDIM概述 去噪扩散隐式模型(DDIM)是一种用于生成建模的技术,它通过引入一种新的采样方法来加速传统扩散模型的推理过程[^4]。DDIM不仅保持了高质量图像生成的能力,还显著提高了效率。 #### 工作原理 在标准的去噪扩散概率模型(DDPM)中,数据逐渐被噪声破坏的过程遵循马尔可夫链,在每一步都加入一定的随机性。然而对于DDIM而言,其核心特点在于允许更灵活地控制这个过程中添加的噪音量。具体来说,当条件满足时,随机项变为零,这意味着整个过程变得完全确定istic而非概率性的[^3]。因此,相比于传统的DDPM, DDIM能够在较少的时间步内完成相似质量的结果生成。 #### 数学表达 DDIM的核心概念可以通过一系列方程描述出来: - 设定初始分布\(q(\mathbf{x}_T)\),其中\(\mathbf{x}_T\)表示经过T次迭代后的含噪输入; \[ q(\mathbf{x}_{t}|\mathbf{x}_{t-1})=\sqrt{\alpha_t}\mathbf{x}_{t-1}+\sqrt{1-\alpha_t}\epsilon \] 这里,\(\alpha_t\)代表衰减因子而\(\epsilon\)则服从标准正态分布N(0,I). - 对于逆向过程,则定义为: \[ p_\theta (\mathbf{x}_{t-1} | \mathbf{x}_t)=\mathcal N (\mu_{\theta}, \Sigma ) \] 其中参数化的均值函数\(\mu _ {\ theta }\) 和协方差矩阵Σ决定了如何从加噪状态恢复原始信号. ```python import torch.nn as nn class DDIM(nn.Module): def __init__(self, beta_schedule='linear', timesteps=1000): super().__init__() self.timesteps = timesteps # Define the schedule of betas & alphas according to given scheme. if beta_schedule == 'linear': self.betas = ... self.alphas = ... def forward(self, x_T, eta=0): # eta controls randomness; set to zero for deterministic sampling """Sample from p(x_0|x_T).""" mu_theta = ... # Compute mean based on current state and model parameters sigma_squared = ... * eta ** 2 # Control variance by adjusting eta value return mu_theta + torch.sqrt(sigma_squared) * torch.randn_like(mu_theta) ``` 上述代码片段展示了简化版的DDIM实现框架,重点在于`forward()`函数内部逻辑——即如何利用给定时间戳下的信息以及eta超参调节最终输出结果中的不确定性程度[^1].
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值