影像生成模型
文章平均质量分 93
本专栏是关于生成模型的基础入门资料,先从信息论中的概率模型基础知识入手,为理解生成模型打下基础,再探讨生成任务的本质及相关估计方法,进而介绍生成模型的核心内容,包括其原理、机制等。
Akatsuky.
SEU→HKUST
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
生成式模型入门 3(DDPM)
本文深入探讨了去噪扩散概率模型(DDPM)的核心原理与工作机制。DDPM通过正向逐步加噪和反向去噪两个过程实现图像生成:前向过程将数据逐渐扰动为高斯噪声,反向过程则通过神经网络学习逐步去噪以重建原始图像。文章详细推导了DDPM的优化目标——证据下界(ELBO),重点分析了通过预测噪声来实现分布逼近的关键机制。文中还对比了DDPM与变分自编码器(VAE)在理论框架上的相似性,指出二者都采用变分推断方法最大化对数似然。最后具体阐述了DDPM的训练策略和采样过程,揭示了该模型从噪声中重构高质量图像的数学原理。原创 2025-08-26 16:29:56 · 310 阅读 · 0 评论 -
生成式模型入门 2(VAE 与 GAN)
本文深入解析了生成式模型中的两大经典方法——变分自编码器(VAE)和生成对抗网络(GAN)。VAE通过引入隐变量和变分推断构建概率生成模型,其核心是编码器-解码器架构和证据下界(ELBO)优化目标,包含重构项和正则项。GAN则采用对抗训练思想,通过生成器与判别器的博弈间接学习数据分布,最终目标是最小化生成分布与真实分布间的JS散度。文章对比了两种方法的优缺点:VAE训练稳定但生成样本较平滑,GAN样本质量高但训练难度大。两者分别从概率建模和对抗学习两个方向突破了传统极大似然估计在高维数据生成中的局限性。原创 2025-08-14 23:30:02 · 973 阅读 · 0 评论 -
生成式模型入门 1(信息论与极大似然估计)
本文系统阐述了生成式模型的信息论基础,重点解析了自信息、熵、交叉熵和KL散度的数学定义及其在机器学习中的意义。通过分析极大似然估计与KL散度的关联,揭示了生成模型的优化本质是使参数分布逼近目标分布。同时指出传统MLE在高维数据建模中的局限性,并为VAE、GAN和扩散模型等现代生成方法的创新思路做铺垫。适合生成模型入门学习。原创 2025-08-13 19:25:34 · 635 阅读 · 0 评论
分享