降维算法实战指南:PCA与LDA公式推导完全解析
【免费下载链接】pumpkin-book 《机器学习》(西瓜书)公式详解 项目地址: https://gitcode.com/datawhalechina/pumpkin-book
机器学习中的降维技术是数据处理的重要环节,主成分分析(PCA)和线性判别分析(LDA)作为最经典的降维算法,在《机器学习》(西瓜书)第10章中有详细推导。本文将为您深入解析这两种算法的核心公式推导,助您轻松掌握降维技术的精髓。
📊 降维技术概述
降维是机器学习中的关键技术,旨在将高维数据转换为低维表示,同时保留最重要的信息。PCA和LDA分别从不同角度解决降维问题:
- PCA(主成分分析):无监督学习方法,追求最大方差投影
- LDA(线性判别分析):有监督学习方法,追求最佳类别分离
🔍 PCA核心公式推导
目标函数构建
PCA的目标是最小化重构误差,其数学表达式为:
$$\sum_{i=1}^m\left|\sum_{j=1}^{d^{\prime}} z_{ij} \boldsymbol{w}_j-\boldsymbol{x}_i\right|_2^2$$
通过一系列矩阵运算化简,最终得到等价的目标函数:
$$-\sum_{i=1}^m\left|\mathbf{W}^{\top} \boldsymbol{x}_i\right|_2^2$$
协方差矩阵与特征分解
PCA的核心是对样本协方差矩阵进行特征值分解:
$$\mathbf{X}\mathbf{X}^{\top} = \mathbf{V}\boldsymbol{\Lambda}\mathbf{V}^{\top}$$
其中最大的特征值对应的特征向量就是主成分方向。
🎯 LDA核心思想解析
类间散度与类内散度
LDA通过最大化类间散度与类内散度的比值来确定最佳投影方向:
$$J(\mathbf{W}) = \frac{|\mathbf{W}^{\top}\mathbf{S}_b\mathbf{W}|}{|\mathbf{W}^{\top}\mathbf{S}_w\mathbf{W}|}$$
其中:
- $\mathbf{S}_b$:类间散度矩阵
- $\mathbf{S}_w$:类内散度矩阵
广义特征值问题
LDA的求解转化为广义特征值问题:
$$\mathbf{S}_b\mathbf{w} = \lambda\mathbf{S}_w\mathbf{w}$$
通过求解该问题得到最佳投影方向。
📈 算法对比与应用场景
| 特性 | PCA | LDA |
|---|---|---|
| 监督性 | 无监督 | 有监督 |
| 目标 | 最大方差 | 最大类别分离 |
| 适用场景 | 数据可视化、去噪 | 分类任务特征提取 |
💡 实战应用技巧
PCA使用要点
- 数据标准化是PCA的前提
- 选择主成分数量的经验法则:累计方差贡献率>85%
- 可用于数据压缩和噪声过滤
LDA使用要点
- 要求各类别样本数不能太少
- 投影维度最多为类别数-1
- 在文本分类、人脸识别中效果显著
🚀 总结与展望
PCA和LDA作为经典的降维算法,虽然思路不同但都基于坚实的数学基础。掌握它们的公式推导不仅有助于理解算法本质,更能为实际应用提供理论指导。
通过《机器学习》(西瓜书)第10章的详细推导,我们可以深入理解矩阵运算在降维中的应用,以及如何将复杂的优化问题转化为可求解的数学形式。
降维技术仍在不断发展,深度学习中的自动编码器等新技术为降维提供了新的思路,但PCA和LDA作为基础算法,其核心思想仍然具有重要的指导意义。
【免费下载链接】pumpkin-book 《机器学习》(西瓜书)公式详解 项目地址: https://gitcode.com/datawhalechina/pumpkin-book
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考






