刨根问底
文章平均质量分 91
本专栏以“教授”身份,第一视角地解答“学生”们的问题。
众生皆苦,我是红豆奶茶味
这个人没什么要说的,因为他既不勤奋,也不自律。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【刨根问底】变分自编码器(VAE) | 什么是变分自编码器(Variational Autoencoder, VAE)?
变分自编码器(VAE)是一种重要的生成模型,通过学习数据在潜空间中的概率分布来生成新样本。与普通自编码器不同,VAE的编码器输出的是概率分布参数(均值μ和方差σ²),而非固定向量。通过重参数化技巧从分布中采样后,解码器重建输入数据。VAE的关键在于其损失函数包含两部分:重建损失确保生成质量,KL散度损失则约束潜空间分布接近标准正态分布,使空间连续且结构化。这种设计让VAE不仅能压缩数据,还能在潜空间中平滑插值,实现高质量的数据生成。原创 2025-07-10 05:06:40 · 1304 阅读 · 0 评论 -
【刨根问底】VQ-VAE和VQGANs | 什么是VQ-VAE(Vector Quantised-Variational Autoencoder) 和 VQGANs ?
VQ-VAE和VQGAN是两阶段生成模型的关键技术。VQ-VAE通过离散码本将图像编码为视觉词汇序列,解决了VAE后验坍缩问题;VQGAN则引入GAN提升重建质量,使生成图像更锐利。二者的核心区别在于:VQ-VAE使用自编码结构,而VQGAN结合了对抗训练。LDM后来在此基础上改进,用扩散模型替代自回归Transformer处理第二阶段,实现了更高效的图像生成。这些模型的演进体现了从连续潜空间到离散表征,再到结合GAN优势的技术发展路径。原创 2025-07-10 03:18:02 · 841 阅读 · 0 评论 -
【刨根问底】 自回归模型(ARMs) | 什么是自回归模型(Autoregressive Models, ARMs)?
自回归模型(ARMs)是一种序列数据建模方法,其核心思想是将序列中每个元素的概率建模为依赖于前面所有元素的条件概率。通过链式法则分解联合概率分布,ARMs逐步生成数据(如逐个像素生成图像)。相比马尔科夫链的有限记忆特性,ARMs具有全历史依赖能力,可捕获更复杂的关系。虽然ARMs生成质量高且稳定,但其顺序生成过程导致计算效率较低。现代基于Transformer的ARMs通过长时记忆机制显著提升了建模能力,成为高质量序列生成的重要方法。原创 2025-07-10 01:34:43 · 1247 阅读 · 0 评论 -
【刨根问底】残差网络 | 为什么需要残差网络来加深网络深度?
同学,你这个问题问到了点子上。能够对一个概念刨根问底,是做好研究的关键素养。是的,我们现在就来把“残差学习”这个概念彻底掰开、揉碎了讲清楚。你引用的那段话是它的核心总结,但其精髓藏在“为什么”之中。我们用一个更生动、更符合直觉的方式来重新理解它。首先,我们有一个非常符合直觉的假设:网络越深,性能应该越好。为什么?因为更深的网络意味着更多的层,更多的参数,理论上它能学习到更复杂的特征,表达能力更强。一个50层的网络,至少应该能包含一个20层网络的所有功能,对吧?美好的愿望是:假设我们已经有了一个训练得很好的、原创 2025-06-24 23:45:14 · 853 阅读 · 0 评论
分享