PCA(非常详细)【机器学习】

本文详细介绍PCA(主成分分析)的原理及其应用。PCA是一种常用的数据分析方法,主要用于高维数据的降维处理,通过提取数据的主要特征分量来降低数据的维度。文章从最大可分性和最近重构性两方面进行数学推导,最终实现数据降维。

特别声明:本文非本人所写,转载而已,在此非常感谢复旦大学 计算机技术硕士 阿泽学长的辛苦付出,以下是原作者:

【机器学习】降维——PCA(非常详细) - 阿泽的文章 - 知乎https://zhuanlan.zhihu.com/p/77151308

 

PCA(Principal Component Analysis) 是一种常见的数据分析方式,常用于高维数据的降维,可用于提取数据的主要特征分量。

PCA 的数学推导可以从最大可分型和最近重构性两方面进行,前者的优化条件为划分后方差最大,后者的优化条件为点到划分平面距离最小,这里我将从最大可分性的角度进行证明。

1. 向量表示与基变换

我们先来介绍些线性代数的基本知识。

1.1 内积

两个向量的 A 和 B 内积我们知道形式是这样的:

 

内积运算将两个向量映射为实数,其计算方式非常容易理解,但我们无法看出其物理含义。接下来我们从几何角度来分析,为了简单起见,我们假设 A 和 B 均为二维向量,则:

 

其几何表示见下图:

我们看出 A 与 B 的内积等于 A 到 B 的投影长度乘以 B 的模。

如果假设 B 的模为 1,即让 |B|=1 ,那么就变成了:

      A⋅B=|A|cos(a)

也就是说,A 与 B 的内积值等于 A 向 B 所在直线投影的标量大小。

这就是内积的一种几何解释,也是我们得到的第一个重要结论。在后面的推导中,将反复使用这个结论。

1.2 基

在我们常说的坐标系种,向量 (3,2) 其实隐式引入了一个定义:以 x 轴和 y 轴上正方向长度为 1 的向量为标准。向量 (3,2) 实际是说在 x 轴投影为 3 而 y 轴的投影为 2。注意投影是一个标量,所以可以为负。

所以,对于向量 (3, 2) 来说,如果我们想求它在 (1,0),(0,1) 这组基下的坐标的话,分别内积即可。当然,内积完了还是 (3, 2)。

所以,我们大致可以得到一个结论,我们要准确描述向量,首先要确定一组基,然后给出在基所在的各个直线上的投影值,就可以了。为了方便求坐标,我们希望这组基向量模长为 1。因为向量的内积运算,当模长为 1 时,内积可以直接表示投影。然后还需要这组基是线性无关的,我们一般用正交基,非正交的基也是可以的,不过正交基有较好的性质。

 

2. 最大可分性

上面我们讨论了选择不同的基可以对同样一组数据给出不同的表示,如果基的数量少于向量本身的维数,则可以达到降维的效果。

但是我们还没回答一个最关键的问题:如何选择基才是最优的。或者说,如果我们有一组 N 维向量,现在要将其降到 K 维(K 小于 N),那么我们应该如何选择 K 个基才能最大程度保留原有的信息?

一种直观的看法是:希望投影后的投影值尽可能分散,因为如果重叠就会有样本消失。当然这个也可以从熵的角度进行理解,熵越大所含信息越多。

2.1 方差

我们知道数值的分散程度,可以用数学上的方差来表述。一个变量的方差可以看做是每个元素与变量均值的差的平方和的均值,即:

 

为了方便处理,我们将每个变量的均值都化为 0 ,因此方差可以直接用每个元素的平方和除以元素个数表示:

 

于是上面的问题被形式化表述为:寻找一个一维基,使得所有数据变换为这个基上的坐标表示后,方差值最大。

2.2 协方差

在一维空间中我们可以用方差来表示数据的分散程度。而对于高维数据,我们用协方差进行约束,协方差可以表示两个变量的相关性。为了让两个变量尽可能表示更多的原始信息,我们希望它们之间不存在线性相关性,因为相关性意味着两个变量不是完全独立,必然存在重复表示的信息。

协方差公式为:

 

由于均值为 0,所以我们的协方差公式可以表示为:

 

当样本数较大时,不必在意其是 m 还是 m-1,为了方便计算,我们分母取 m。

当协方差为 0 时,表示两个变量完全独立。为了让协方差为 0,我们选择第二个基时只能在与第一个基正交的方向上进行选择,因此最终选择的两个方向一定是正交的。

2020 年 12 月 15 日补充:协方差为 0 时,两个变量只是线性不相关。完全独立是有问题的,才疏学浅,还望见谅。)

至此,我们得到了降维问题的优化目标:将一组 N 维向量降为 K 维,其目标是选择 K 个单位正交基,使得原始数据变换到这组基上后,各变量两两间协方差为 0,而变量方差则尽可能大(在正交的约束下,取最大的 K 个方差)。

2.3 协方差矩阵

针对我们给出的优化目标,接下来我们将从数学的角度来给出优化目标。

我们看到,最终要达到的目的与变量内方差及变量间协方差有密切关系。因此我们希望能将两者统一表示,仔细观察发现,两者均可以表示为内积的形式,而内积又与矩阵相乘密切相关。于是我们有:

假设我们只有 a 和 b 两个变量,那么我们将它们按行组成矩阵 X:

 

然后:

 

我们可以看到这个矩阵对角线上的分别是两个变量的方差,而其它元素是 a 和 b 的协方差。两者被统一到了一个矩阵里。

我们很容易被推广到一般情况:

 

2.4 矩阵对角化

根据我们的优化条件,我们需要将除对角线外的其它元素化为 0,并且在对角线上将元素按大小从上到下排列(变量方差尽可能大),这样我们就达到了优化目的。这样说可能还不是很明晰,我们进一步看下原矩阵与基变换后矩阵协方差矩阵的关系。

设原始数据矩阵 X 对应的协方差矩阵为 C,而 P 是一组基按行组成的矩阵,设 Y=PX,则 Y 为 X 对 P 做基变换后的数据。设 Y 的协方差矩阵为 D,我们推导一下 D 与 C 的关系:

 

这样我们就看清楚了,我们要找的 P 是能让原始协方差矩阵对角化的 P。换句话说,优化目标变成了寻找一个矩阵 P,满足 PCPT 是一个对角矩阵,并且对角元素按从大到小依次排列,那么 P 的前 K 行就是要寻找的基,用 P 的前 K 行组成的矩阵乘以 X 就使得 X 从 N 维降到了 K 维并满足上述优化条件

至此,我们离 PCA 还有仅一步之遥,我们还需要完成对角化。

由上文知道,协方差矩阵 C 是一个是对称矩阵,在线性代数中实对称矩阵有一系列非常好的性质:

  1. 实对称矩阵不同特征值对应的特征向量必然正交。
  2. 设特征向量 λ 重数为 r,则必然存在 r 个线性无关的特征向量对应于 λ ,因此可以将这 r 个特征向量单位正交化。

由上面两条可知,一个 n 行 n 列的实对称矩阵一定可以找到 n 个单位正交特征向量,设这 n 个特征向量为 e1,e2,⋯,en ,我们将其按列组成矩阵: E=(e1,e2,⋯,en) 。

则对协方差矩阵 C 有如下结论:

 

其中 Λ 为对角矩阵,其对角元素为各特征向量对应的特征值(可能有重复)。

到这里,我们发现我们已经找到了需要的矩阵 P:  。

 

P 是协方差矩阵的特征向量单位化后按行排列出的矩阵,其中每一行都是 C 的一个特征向量。如果设 P 按照 Λ 中特征值的从大到小,将特征向量从上到下排列,则用 P 的前 K 行组成的矩阵乘以原始数据矩阵 X,就得到了我们需要的降维后的数据矩阵 Y。

2.5 补充

(1) 拉格朗日乘子法

在叙述求协方差矩阵对角化时,我们给出希望变化后的变量有:变量间协方差为 0 且变量内方差尽可能大。然后我们通过实对称矩阵的性质给予了推导,此外我们还可以把它转换为最优化问题利用拉格朗日乘子法来给予推导。

 

4. 性质

  1. 缓解维度灾难:PCA 算法通过舍去一部分信息之后能使得样本的采样密度增大(因为维数降低了),这是缓解维度灾难的重要手段;
  2. 降噪:当数据受到噪声影响时,最小特征值对应的特征向量往往与噪声有关,将它们舍弃能在一定程度上起到降噪的效果;
  3. 过拟合:PCA 保留了主要信息,但这个主要信息只是针对训练集的,而且这个主要信息未必是重要信息。有可能舍弃了一些看似无用的信息,但是这些看似无用的信息恰好是重要信息,只是在训练集上没有很大的表现,所以 PCA 也可能加剧了过拟合;
  4. 特征独立:PCA 不仅将数据压缩到低维,它也使得降维之后的数据各特征相互独立;

5. 细节

5.1 零均值化

当对训练集进行 PCA 降维时,也需要对验证集、测试集执行同样的降维。而对验证集、测试集执行零均值化操作时,均值必须从训练集计算而来,不能使用验证集或者测试集的中心向量。

其原因也很简单,因为我们的训练集时可观测到的数据,测试集不可观测所以不会知道其均值,而验证集再大部分情况下是在处理完数据后再从训练集中分离出来,一般不会单独处理。如果真的是单独处理了,不能独自求均值的原因是和测试集一样。

另外我们也需要保证一致性,我们拿训练集训练出来的模型用来预测测试集的前提假设就是两者是独立同分布的,如果不能保证一致性的话,会出现 Variance Shift 的问题。

5.2 与 SVD 的对比

这是两个不同的数学定义。我们先给结论:特征值和特征向量是针对方阵才有的,而对任意形状的矩阵都可以做奇异值分解

 

6. 参考

  1. 《机器学习》周志华
  2. PCA 的数学原理
  3. Singular Value Decomposition (SVD) tutorial
  4. 机器学习中的数学(4)——线性判别分析(LDA), 主成分分析(PCA)
  5. 从SVD到PCA——奇妙的数学游戏

 

05-10
### PCA 的 IT 应用与数据降维实现 #### 数据降维的重要性 在机器学习和数据分析领域,高维数据可能导致计算成本增加、存储需求增大以及模型训练时间延长等问题。因此,数据降维成为一种有效的技术手段[^1]。通过降维,不仅可以降低计算开销,还能帮助去除冗余信息并减少特征间的相关性,从而提升模型的稳定性和可解释性。 #### PCA 的基本原理 PCA 是一种无监督的学习算法,旨在寻找一组新的正交基向量(主成分),使原始数据在这组新基下的投影具有最大方差。具体来说,PCA 将高维数据映射到较低维度的空间中,同时保留尽可能多的重要信息[^2]。 #### PCA 的实现步骤 以下是基于 Python 和 NumPy 的 PCA 实现: ```python import numpy as np def pca(X, k): """ 对输入数据 X 进行 PCA 降维至 k 维 参数: X: 输入数据矩阵 (形状为 n_samples x n_features) k: 目标降维后的维度 返回: Y: 降维后的数据矩阵 (形状为 n_samples x k) """ # 中心化数据 mean_vector = np.mean(X, axis=0) centered_X = X - mean_vector # 计算协方差矩阵 cov_matrix = np.cov(centered_X, rowvar=False) # 特征值分解 eigenvalues, eigenvectors = np.linalg.eigh(cov_matrix) # 排序特征值及其对应的特征向量 sorted_indices = np.argsort(eigenvalues)[::-1] top_k_eigenvectors = eigenvectors[:, sorted_indices[:k]] # 投影到低维空间 Y = np.dot(centered_X, top_k_eigenvectors) return Y ``` 此函数实现了完整的 PCA 流程,包括中心化、协方差矩阵计算、特征值分解以及最终的数据投影[^5]。 #### PCA 的应用场景 1. **数据可视化**: 当数据维度较高时,可以通过 PCA 将其降至两维或三维以便于绘图和观察。 2. **特征提取**: 提取最能代表数据变化方向的几个主成分作为后续建模的基础特征。 3. **去噪处理**: 利用 PCA 可以滤除部分噪声干扰项,增强信号强度。 4. **压缩存储**: 高维数据经过降维后占用更少的存储空间[^3]。 #### 工具与资源推荐 为了更好地掌握 PCA 并应用于实际项目中,建议参考以下工具和资料: - 使用 `NumPy` 或者 `scikit-learn` 来快速构建 PCA 模型; - 查阅官方文档获取详细的 API 描述和技术支持; - 学习经典教材如《统计学习方法》中的相关内容加深理解[^4]。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

创业者-杨成淦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值