32、深度生成模型与贝叶斯学习:原理、方法与应用

深度生成模型与贝叶斯学习:原理、方法与应用

1. 深度生成模型

1.1 变分自编码器(VAE)

变分自编码器是一种用于学习深度生成模型的方法。它包含两个神经网络,第一个神经网络 V 作为编码器,为每个样本 x 生成一些编码;第二个神经网络作为解码器,将编码转换回样本的估计值。训练过程中,使用标准的误差反向传播方法,将误差从输出一路传回输入,然后用梯度更新模型参数,重复此过程直到收敛。

与自编码器方法相比,VAE 的代理函数中的期望项可以看作是初始输入 x 和解码器恢复输出之间的失真度量。不过,VAE 训练方法中的代理函数与 EM 算法中的辅助函数有根本区别。增加代理函数 $L(W, V, σ|x)$ 并不一定导致似然函数增长,更不用说最大化似然函数了。只有当下界足够紧时,代理函数和对数似然函数才密切相关,它们之间的差距取决于近似高斯分布和真实条件分布之间的 KL 散度。因此,VAE 训练方法具有很强的启发性,最终性能很大程度上取决于在训练中能有效缩小这个差距的程度,这隐含地依赖于两个神经网络的配置是否适合给定的数据。

1.2 生成对抗网络(GAN)

学习深度生成模型本质上很困难,因为似然函数无法明确计算。在 VAE 训练过程中,我们试图通过最大化一个易于处理的代理函数来学习所有模型参数,该代理函数是对数似然函数的变分下界。

Goodfellow 等人提出了一种基于纯采样的训练过程来学习深度生成模型,即生成对抗网络(GAN),它完全摒弃了难以处理的似然函数。GAN 依赖于两个对抗神经网络之间的竞争。为了学习深度生成模型 W,引入了另一个神经网络 V 作为补充模块。具体过程如下:
1. 从因子分布 $p(z

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值