大家好,这里是好评笔记,公主号:Goodnote,专栏文章私信限时Free。本笔记介绍机器学习中常见的无监督学习方法——降维。 文章目录 降维方法概述 线性降维方法 定义 特点 常见方法 PCA(Principal Component Analysis,主成分分析) 原理 步骤 降维后的数据 优点 缺点 应用场景 LDA(Linear Discriminant Analysis,线性判别分析) 原理 步骤 降维后的数据 优点 缺点 应用场景 SVD(Singular Value Decomposition,奇异值分解)——LORA使用 原理 步骤 降维后的数据 各矩阵含义 优点 缺点 应用场景 比较总结 非线性降维方法 总结:不同核方法的核函数选择策略 定义 特点 常见方法 Kernel PCA(核主成分分析, Kernel Principal Component Analysis) 原理 步骤 优点 缺点 应用场景 NDA(Nonlinear Discriminant Analysis,非线性判别分析) 原理 步骤 优点: 缺点 应用场景 T-SNE(t-Distributed Stochastic Neighbor Embedding,t 分布随机邻域嵌入) 原理 步骤 优点 缺点 应用场景 Autoencoder(自编码器) 原理 结构 优点 缺点 应用场景 对比总结 总结 历史文章 降维方法概述 降维目的是将高维数据映射到低维空间中,同时尽量保留数据的主要信息。降维可以减少数据冗余、降低计算复杂度、减轻过拟合风险,并帮助我们更好地理解和可视化数据。降维方法主要分为线性降维和非线性降维两类。 线性降维方法 定义 线性降维方法假设数据可以通过线性变换从高维空间映射到低维空间。这类方法适用于数据具有线性结构/线性分布的情况。