降维(二)LLE+t-SNE+auto-encoder(李宏毅机器学习)

本文深入探讨了降维技术LLE、LE、T-SNE及Auto-Encoder的原理与应用。LLE通过保持数据间的局部线性关系实现降维;LE利用图论思想评估降维效果;T-SNE关注于保留高维空间中近距离样本的相似度;Auto-Encoder通过编码器和解码器实现数据的压缩与重构。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

LLE:Locally Linear Embedding

首先引入一下这个想法:
在这里插入图片描述
在图中可以看出,在原来的数据中,1与2是距离比较近的,因为你要到达3需要经过2,而降维后我们会导致表示结果中(1和3)比(1和2)近,因此我们需要解决这个问题:采取记录原始”权重“的办法。

  • step1:学习原始数据中xi,xjx_i,x_jxi,xj之间的关系。
    在这里插入图片描述
  • 然后保持权重wijw_ijwij不变,来评估降维后的结果。
    在这里插入图片描述
    总结:中国有句名句:在天愿做比翼鸟,在地愿为连理枝。在天=xi,xjx_i,x_jxi,xj,而比翼鸟则为他们之前的关系。我们降维后,则在地=zi,zjz_i,z_jzi,zj,而他们的关系也应该是wijw_ijwij,也就是与比翼鸟类似的连理枝。除此之外,还有LE(Laplacian Eigenmaps),它与半监督中基于图的方法十分类似,基于图学习wijw_ijwij,然后再与LLE类似,基于wijw_ijwij,评估z。

T-SNE(T-distributed Stochastic Neighnor Embedding)

基本思想:只考虑原来距离相近的降维后要距离很近,原来远一点的点降维后距离会更远。

  • step1:计算xi,xjx_i,x_jxi,xj相似度。计算zi,zjz_i,z_jzi,zj相似度。并且用概率的方式表达,这样一来就不存在由于数据大小差距过大而需要数据缩放的问题。
    在这里插入图片描述
  • step2:使用KL散度计算降维前后的变化loss。(这里可以使用梯度下降进行求解)
    在这里插入图片描述
    SNE与t-SNE就在于降维数据的相似度求解函数的差别。通过新的相似度函数,原来近的点更近,远的点更远,效果更好。

auto-encoder

encoder:把输入的图片降维变成"code".
decoder:把输出的"code"重建变成图片。
在这里插入图片描述
其实就是一个多个Bottleneck的非线性PCA。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值