Stetman读paper小记:Denoising Diffusion Probabilistic Models

本文介绍了DDMP,一种重要的扩散模型,它包括前向过程(不断添加噪声)和反向过程(逐步去噪)。前向过程通过添加高斯噪声破坏图像,反向过程则学习如何通过神经网络消除噪声以恢复图像。训练目标是最大化生成样本的对数似然性,简化后的损失函数是前向过程添加的噪声和模型预测噪声之间的均方误差。

由于课题组研究需要,了解了一下当前比较火爆的扩散模型(Diffusion Model),其中DDMP作为扩散模型中比较重要的基础模型之一,特此记录。

这篇论文主要介绍了一种去噪扩散概率模型。 

关于扩散模型的一些基础笔记,记录在http://t.csdn.cn/VZkZG

模型原理

* PDF:PDF是一个“概率函数”,表示连续随机变量的密度(可能性)——在这种情况下,这意味着一个函数,表示图像位于函数参数定义的特定值范围之间的可能性。 每个PDF都有一组参数,这些参数决定了分布的形状和概率。分布的形状会随着参数值的变化而变化,如下图所示。例如,在正态分布的情况下,我们有均值µ(mu)和方差σ2(sigma)来控制分布的中心点和扩散。

 上图体现了扩散模型的正反向扩散过程,其中:

 这个术语也被称为前向扩散核(FDK)。它定义了给定图像xt-1的前向扩散过程xt中的时间步长t处的图像的PDF。它表示正向扩散过程中每一步应用的“过渡函数”。

 类似于正向过程,这个术语被称为反向扩散核(RDK)。它代表给定xt的xt-1的PDF,由𝜭. 这个𝜭 意味着使用神经网络来学习反向过程的分布参数。它是应用于反向扩散过程中每一步的“过渡函数”。

简言之,在DDPM模型中,主要包括了两个过程:

  • 前向过程 (Forward process):不断地往原始图片中添加噪声

  • 反向过程 (Reverse process):通过不断地去噪去复原图片

 向前过程分析:

        简单来说,前向过程的输入是原始图片,该图片服从一定的分布,输出是噪音图片,该图片服从高斯分布。

        在前向过程中,对于一个输入图片,在某一个特定的时间 t 下,添加某种程度的噪音,得到噪音样本。前向过程不断重复该步骤,结果是一个时间序列和一系列噪音增大的图片。

        具体来说,从数据分布 q(x) 中选取图片 x0,在时间序列 {0, T} 内的某个时间 t,选取某个等级的噪音 nt,把噪音添加到输入图片,得到噪音样本 xt。在 T 个步长后得到样本序列:{X0, Xt}。步长由超参数方差机制 βt(0 - 1) 来控制。

前向扩散过程中的分布q被定义为马尔可夫链,由下式给出:

        我们首先从我们的数据集中获取一张图像:x0。从数学上讲,它被称为从原始(但未知)数据分布中采样一个数据点:x0~q(x0)。

<think>嗯,用户问的是Denoising Diffusion Probabilistic Models的中文翻译。首先,我需要确认这个词组的准确翻译。根据提供的引用资料,比如引用[2]提到了“生成式AI扩散模型-Diffusion Model Denoising Diffusion Probabilistic Models”,这里的中文翻译应该是“去噪扩散概率模型”。另外,引用[3]也提到了“扩散模型”,所以综合来看,正确的翻译应该是“去噪扩散概率模型”。 接下来,用户可能对DDPM的基本原理和应用场景感兴趣,虽然他们直接问的是翻译,但可能需要进一步的解释。比如,DDPM属于生成模型的一种,通过逐步去噪来生成数据,这个过程类似于扩散的逆过程。根据引用[3],扩散模型基于马尔可夫链,通过反向去噪恢复图像,灵感来自非平衡热力学中的扩散过程。 另外,用户可能还想知道DDPM与其他生成模型(如GAN或VAE)的区别,或者它的优势在哪里。例如,引用[4]提到方差选择对生成结果的影响较小,随着训练步数增加,均值估计的影响更大,这可能说明DDPM在稳定性和生成质量上的优势。 用户可能需要更深入的内容,比如DDPM的训练过程、应用案例或者数学原理。根据引用[4],方差的选择在大部分时间步中是固定的,这可能简化模型训练。此外,DDPM在图像生成、音频合成等领域有广泛应用,这也是用户可能感兴趣的方向。 总结一下,用户的核心需求是中文翻译,但潜在的可能需要了解其基本原理、优势、应用场景以及与其他模型的对比。需要确保回答准确且覆盖这些潜在问题,同时引用提供的资料来支持回答。</think>### Denoising Diffusion Probabilistic Models 的中文翻译 Denoising Diffusion Probabilistic Models(DDPM)的中文翻译为**去噪扩散概率模型**。该模型是扩散模型(Diffusion Model)的一种实现形式,其核心思想是通过模拟数据逐步加噪和反向去噪的马尔可夫链过程,最终生成高质量的数据样本[^3]。 ### 核心概念解析 1. **加噪过程(正向过程)**:通过多步向数据中添加高斯噪声,将原始数据逐渐变为纯噪声,模拟热力学中的扩散现象。 2. **去噪过程(反向过程)**:通过神经网络学习如何从噪声中逐步恢复原始数据,每一步预测当前噪声并去除,最终生成目标样本[^3]。 3. **方差调整**:在加噪过程中,噪声的方差(如$\beta_t$和$\tilde{\beta}_t$)会根据时间步动态调整,但随着时间步数增加(例如$T=4000$),方差的影响逐渐减弱,均值预测($\mu_\theta(x_t, t)$)成为主导因素[^4]。 ### 示例代码(简化的扩散过程) ```python # 加噪过程示例 def forward_diffusion(x0, t, beta_schedule): noise = torch.randn_like(x0) alpha = 1 - beta_schedule[t] xt = torch.sqrt(alpha) * x0 + torch.sqrt(1 - alpha) * noise return xt, noise ``` ### 相关问题 1. **去噪扩散概率模型与GAN、VAE有何区别?** 2. **DDPM中如何设计有效的噪声调度(Noise Schedule)?** 3. **扩散模型在图像生成以外的领域有哪些应用?** 4. **为什么DDPM的方差调整对生成质量影响较小?** [^4] ### 引用来源 [^1]: Diffusion Model(Denoising Diffusion Probabilistic Models) 作用 [^2]:DiffusionDenoising Diffusion Probabilistic Models (DDPM)入门指南 : 扩散模型基于马尔可夫链的反向去噪原理 : 方差$\beta_t$与$\tilde{\beta}_t$对生成结果的影响分析
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值