机器学习 - 降维算法总结

本文总结了六种机器学习中的降维算法:PCA、KPCA、MDS、Isomap、LLE和LE。每种算法都有其特点,如PCA通过线性变换找到最佳投影方向,而KPCA则用于非线性数据的降维处理。Isomap和LE等算法则更加关注数据间的相对距离和相似性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习 - 降维算法总结

上课学了这六种算法,总结一下,加强理解。
目的:将X:N×d 映射到Z:N×d

  • PCA
    找一个线性变换WZ=WTX使得重构误差最小。

  • KPCA
    X非线性的情况下,可以映射到合适的高维特征空间ϕ(X)之后,再对ϕ(X)使用PCA方法。但是ϕ(X)不好找,计算代价大,“对ϕ(X)使用PCA”的计算过程中可用核函数替代计算。

  • MDS
    直接计算Z,保持X的点间距离在Z空间尽可能不变。

  • Isomap
    根据X的点间距建立邻接关系图,对于不相连的点对,计算连接其的最短路径,得到所有点对之间的测地距离。对测地距离使用MDS算法。

  • LLE
    x(i)的邻居的线性组合表示x(i),求出使所有x 重构误差最小的组合系数wij。在低维空间中,z(i)同样用邻居的线性组合表示,组合系数给定为wij。求出使所有z 重构误差最小的z

  • LE
    根据X 的点间距建立邻接关系图,赋予边权重wij。该权重是两端点相似性的一种度量。权重越大,端点越相似(越近)。在z 空间中保持这种相似关系。目标函数:
    minzi,j(z(i)z(j))2wij
    其含义为:当x(i)x(j)越相似,z(i)z(j)也应该越接近,此时wij会比较大,则给(z(i)z(j))2更重的惩罚。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值