机器学习中的监督与无监督学习技术
监督学习
监督学习涵盖了从回归到支持向量机(SVM)和自编码器等多种模型,每种策略在复杂性、应用和功能上都有所不同。
变分自编码器(VAE)
自编码器的任务是在编码和解码过程中尽量减少信息损失。然而,在低维潜在空间中,自编码器可能会出现过拟合问题。为了解决这一问题,2014 年 Diederik Kingma 和 Max Welling 引入了变分自编码器(VAE)。
VAE 是一种基于深度生成模型的自编码器,它通过潜在变量模型从输入数据集中学习。与传统自编码器不同,VAE 的编码器类似于生成式自编码器,能够从潜在空间的一个点生成新的实例。输入数据的编码会分布在潜在空间中,解码过程则基于概率方法进行,并计算重建误差。
在训练过程中,VAE 的模型参数通过两个损失函数进行训练:
- 重建损失 :促使自编码器生成与初始输入匹配的输出。
- 潜在损失 :具体作用文中未详细说明。
训练完成后,VAE 可以使用随机高斯分布的样本轻松生成新实例并进行解码。
示例 3.34(变分自编码器)
- 问题 :考虑 MNIST 数据集,设计一个包含卷积层和全连接层的变分自编码器,用于图像去噪问题。同时,绘制原始图像、噪声图像和重建图像,并可视化网络每个 epoch 的损失。
- 解决方案 :
1. 使用 keras 库的 load_da
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



