深度生成模型与贝叶斯学习:原理、方法与应用
1. 深度生成模型
1.1 变分自编码器(VAE)
变分自编码器是一种用于学习深度生成模型的方法。它包含两个神经网络,第一个神经网络 V 作为编码器,为每个样本 x 生成一些编码;第二个神经网络作为解码器,将编码转换回样本的估计值。训练过程中,使用标准的误差反向传播方法,将误差从输出一路传回输入,然后用梯度更新模型参数,重复此过程直到收敛。
与自编码器方法相比,VAE 的代理函数中的期望项可以看作是初始输入 x 和解码器恢复输出之间的失真度量。不过,VAE 训练方法中的代理函数与 EM 算法中的辅助函数有根本区别。增加代理函数 $L(W, V, σ|x)$ 并不一定导致似然函数增长,更不用说最大化似然函数了。只有当下界足够紧时,代理函数和对数似然函数才密切相关,它们之间的差距取决于近似高斯分布和真实条件分布之间的 KL 散度。因此,VAE 训练方法具有很强的启发性,最终性能很大程度上取决于在训练中能有效缩小这个差距的程度,这隐含地依赖于两个神经网络的配置是否适合给定的数据。
1.2 生成对抗网络(GAN)
学习深度生成模型本质上很困难,因为似然函数无法明确计算。在 VAE 训练过程中,我们试图通过最大化一个易于处理的代理函数来学习所有模型参数,该代理函数是对数似然函数的变分下界。
Goodfellow 等人提出了一种基于纯采样的训练过程来学习深度生成模型,即生成对抗网络(GAN),它完全摒弃了难以处理的似然函数。GAN 依赖于两个对抗神经网络之间的竞争。为了学习深度生成模型 W,引入了另一个神经网络 V 作为补充模块。具体过程如下:
1. 从因子分布 $p(z
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



