Denoising diffusion probabilistic models (DDPMs)从马尔科夫链中采样生成样本,需要迭代多次,速度较慢。Denoising diffusion implicit models (DDIMs)的提出是为了在复用DDPM训练的网络的前提下,加速采样过程。
加速采样的基本思路是,DDPM的生成过程需要从[T,⋯ ,1][T,\cdots,1][T,⋯,1]的序列逐步采样,DDIM则可以从[T,⋯ ,1][T,\cdots,1][T,⋯,1]的子序列采样来生成,通过跳步的方式减少采样的步数。比如DDPM网络原始训练包含1000步,但是采样时可以只从1000步中均匀的选出50步,用这50步采样出图像。
但事实上在后面的实现中,比如diffusers库中,DDPMScheduler也是可以从子序列采样的。
非马尔科夫的前向过程
DDPM中推理分布(inference distribution)q(x1:T∣x0)q(\mathbf x_{1:T}|\mathbf x_0)q(x1:T∣x0)是固定的马尔科夫链。DDIM的作者考虑构造新的推理分布,该推理过程和DDPM优化相同的目标,但能产生新的生成过程。
考虑一个推理分布族Q,由实向量σ∈R≥0T\sigma \in \mathbb{R}^T_{\ge 0}σ∈R≥0T索引:
根据上面的定义有qσ(xt∣x0)=N(αtx0,(1−αt)I)q_{\sigma}(\mathbf x_t | \mathbf x_0) = \mathcal{N}(\sqrt{\alpha_t}\mathbf x_0, (1-\alpha_t)I)qσ(xt∣x0)=N(αtx0,(1−αt)I)。
对应的前向过程也是高斯分布:
通过上面定义的推理过程,前向过程变成了非马尔科夫的,因为每一步都依赖x0\mathbf x_0x0。
参数σ\sigmaσ控制前向过程的随机性,如果σ→0\sigma \rightarrow 0σ→0,那么在已知x0\mathbf x_0x0和其中任一个xt\mathbf x_txt的情况下,xt−1\mathbf x_{t-1}xt−1是固定的。
根据上面的推理过程,定义需要学习的生成过程为:
其中
根据上面的定义的推理过程和生成过程,优化的目标是
可以证明该优化目标和特定情况下DDPM的优化目标相同。
逆向生成过程的采样方法如下:
选择不同的σ\sigmaσ值会导致不同的生成过程,但它们使用相同的ϵθ\epsilon_{\theta}ϵθ模型。
如果σt=(1−αt−1)/(1−αt)(1−αt/αt−1)\sigma_t=\sqrt{(1-\alpha_{t-1})/(1-\alpha_{t})}\sqrt{(1-\alpha_{t}/\alpha_{t-1})}σt=(1−αt−1)/(1−αt)(1−αt/αt−1),那么前向过程又变成了马尔科夫的,生成过程和DDPM一样。
如果σt=0\sigma_t=0σt=0,那么随机噪声前的系数是0,x0\mathbf x_0x0和xT\mathbf x_TxT之间的关系是固定的,这属于隐概率模型(implicit probabilistic model)。因此,作者把这种情况称为denoising diffusion implicit model (DDIM)。
加速
为了加速采样,作者考虑下面的推理过程:
其中τ\tauτ是长度为S的[1,⋯ ,T][1,\cdots,T][1,⋯,T]的子序列,τS=T\tau_S=TτS=T,τ‾:={1,…,T}\τ\overline{\tau}:=\{1,\ldots,T
\} \backslash \tauτ:={1,…,T}\τ是除去子序列剩下的序号。
定义
该推理分布对应的生成过程如下:
定义需要学习的概率为:
根据上面的定义的推理过程和生成过程,优化的目标是
可以证明该优化目标和特定情况下DDPM的优化目标相同。
因此,可以利用DDPM训练的网络,但是从子序列采样生成图像。