简要介绍
“概率图模型 + 神经网络 ”、“ EM算法、变分推断 ”
自动编码器是一种无监督学习方法,将高维的原始数据映射到一个低维特征空间,然后从低维特征学习重建原始的数据。变分自编码器(Variational Autoencoder,简称VAE)是一种生成模型,结合了自编码器和概率图模型的思想。VAE在建模生成模型时是显式地定义了条件概率分布,通过最大似然估计来学习生成模型的参数,使其能够生成与训练数据相似的样本。
符号表示
Symbol Mean E x ∼ p ( x ) [ f ( x ) ] 表示对 f ( x ) 算期望,其中 x 的分布为 p ( x ) p θ ( z ) 先验分布 p θ ( z ∣ x ) 后验分布 q ϕ ( z ∣ x ) 近似的后验概率函数,即概率编码器 p θ ( x ∣ z ) 给定隐变量生成真实数据样本的概率,即概率解码器 \begin{array}{c|c} \hline \text{Symbol} & \text{Mean}\\ \hline \mathbb{E}_{x\sim p(x)}[f(x)] & \text{表示对}f(x)\text{算期望,其中}x\text{的分布为}p(x)\\ p_\theta(\mathbf{z}) & \text{先验分布}\\ p_\theta(\mathbf{z}\vert\mathbf{x}) & \text{后验分布}\\ q_\phi(\mathbf{z}\vert\mathbf{x}) & \text{近似的后验概率函数,即概率编码器}\\ p_\theta(\mathbf{x}\vert\mathbf{z}) & \text{给定隐变量生成真实数据样本的概率,即概率解码器}\\ \hline \end{array} SymbolEx∼p(x)[f(x)]pθ(z)pθ(z∣x)qϕ(z∣x)pθ(x∣z)Mean表示对f(x)算期望,其中x的分布为p(x)先验分布后验分布近似的后验概率函数,即概率编码器给定隐变量生成真实数据样本的概率,即概率解码器
训练原理
模型学习、优化模型参数 θ \theta θ是通过最大似然估计。我们的目的是学习一个模型以最大化所观察到 x x x的似然 p θ ( x ) p_\theta(x) pθ(x),贝叶斯公式得:
p θ ( z ∣ x ) = p ( x , z ; θ ) p θ ( x ) = p θ ( z ) p θ ( x ∣ z ) ∫ z p θ ( x , z ) d z p_\theta({z}\vert{x})=\frac{p(x,z;\theta)}{p_\theta(x)}=\frac{p_\theta(z) p_\theta(x\vert{z})}{\int_z p_\theta(x,z)dz} pθ(z∣x)=pθ(x)p(x,z;θ)