初始PyTorch(八):自编码器Auto-Encoders

本文深入探讨了自编码器(AE)及其多种变种,包括Denoising AutoEncoder、Adversarial AutoEncoder和Variational Autoencoder(VAE),解析它们在无监督学习中的应用,如数据降维和特征学习,以及与PCA、GAN等技术的对比。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.Auto-Encoder自编码器

用途:无监督数据降维,比起PCA,AE更保持位置相关性。输出输出维度是一样的,目标就是生成自己,先降维再升维。

AE VS. PCA

如何训练?

对于二分类问题,当x=0,loss(fx)=-(log(1-)),为了最小化loss,越小越好接近0也就是真实x=0。
同理,当x=1,loss(fx)=-(log()),为了最小化loss,越大越好接近1也就是真实x=1。这就是minmize算法。

变种一:Denoising AutoEncoder

加入了噪声,对比AE在一定程度上防止过拟合。

变种二:Denoising AutoEncoder

按一定概率Dropout,迫使模型更加鲁棒,可以提升精度。可以理解为训练增加难度,测试时用全连接减少难度。对比AE在一定程度上防止过拟合,下图Dropout=0.2时精度最高。

变种三:Adversarial AutoEncoder 让随机种子变真实

增加了鉴别器,判断新生成的数据z'是否符合真实数据z的分布。迫使隐藏层向量完成图片重建外,还符合真实图片的分布。

  其中,KL计算:

前面是AE的loss,后面KL是指pq的分布,重合为0。训练的话就是让Loss变小,pq更加的重合。

x=>N(μ,σ²).sample=>

变种四:Variational Autoencoder 变分自动编码器

VAE解决了之前N(μ,σ²)在反向传播时不可导的问题。

其中推导:

 

AE VS. VAE

GAN VS. VAE

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

nooobme

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值