李宏毅ML lecture-16 unsupervised Learning Auto-encoder

本文探讨了自编码器在无监督学习中的应用,包括Auto-encoder、PCA、DeepAuto-encoder的概念与实践。深入讲解了如何通过增加隐藏层来提升自编码器的能力,以及如何利用限制性玻尔兹曼机进行预训练。此外,还讨论了自编码器在卷积神经网络上的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Auto-encoder

两个神经网络,一个降维,压缩(compact)即Encoder, 把图片转换为code。一个根据code重建(reconstruct)原始的图片。

这两个神经网络单独无法训练,必须同时训练。
在这里插入图片描述

Recap: PCA

训练一个三层神经网络实现PCA,使输入和输出接近,同时存在一个Bottleneck(瓶颈) later layer。这个layer的参数小于input layer的参数,这样就实现了encode和decode。

在这里插入图片描述

Deep Auto-encoder

增加一些隐藏层,就实现了Deep Auto-encoder.

在这里插入图片描述

Reference: Hinton, Geoffrey E., and Ruslan R. Salakhutdinov. “Reducing the dimensionality of data with neural networks.” Science 313.5786 (2006): 504-507

Deep Auto-encoder 结果非常好
在这里插入图片描述

在这里插入图片描述

提高auto-encoder的能力,可以选择增加噪声

在这里插入图片描述

Ref: Rifai, Salah, et al. "Contractive auto-encoders: Explicit invariance during feature extraction.“ Proceedings of the 28th International Conference on Machine Learning (ICML-11). 2011.
Vincent, Pascal, et al. “Extracting and composing robust features with denoising autoencoders.” ICML, 2008.

在这里插入图片描述

Vector Space Model

在这里插入图片描述

搜索图片

直接搜索效果并不好
在这里插入图片描述

Reference: Krizhevsky, Alex, and Geoffrey E. Hinton. “Using very deep autoencoders for content-based image retrieval.” ESANN. 2011.

建立一个auto-encoder
在这里插入图片描述
在code上搜寻
在这里插入图片描述

pre-training

监督学习使用的不多了。
可以用于半监督学习,非标注数据大量的时候。
在这里插入图片描述

Learning More - Restricted Boltzmann Machine

Learning More - Deep Belief Network

auto-encoding 在CNN上

自动编码机
在这里插入图片描述
反池化
在这里插入图片描述
反卷积
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值