机器学习方法简介(4)--主成分分析(PCA)

本文介绍了主成分分析(PCA)的基本原理及应用流程。PCA通过提取数据中的主要成分来实现降维,有效减少了数据间的相互影响。文章详细阐述了如何通过协方差矩阵的特征值分解来确定主成分,并给出了PCA算法的具体步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

顾名思义,主成分分析方法是找出原始数据中的主要成分,用原始数据的主要成分代替原始数据达到降维的效果。

那么我们如果寻找主成分呢?我们可以试图在样本空间中找到一个超平面,使得样本点到这个超平面的距离足够近,或者说样本点在这个超平面上的投影能尽可能的分开,这个超平面的方向即为主成分。

经过推导可知(推导过程省略),假如我们需要将n维样本数据映射为{n}'维的主成分数据,我们找到协方差矩阵XX^{T}{n}'个最大的特征向量和它们对应的特征空间。它们组成的矩阵W就是我们需要的矩阵,将样本数据投影到W上可以得到降维后的数据。

PCA算法流程:

输入:n维样本集D=(x^{(1)},x^{(2)},...,x^{(m)}),要降维到的维数n'.

输出:降维后的样本集D′

1) 对所有的样本进行中心化:x^{(i)} = x^{(i)} - \frac{1}{m}\sum_{j=1}^{m}x^{(j)}

2) 计算样本的协方差矩阵XX^{T}

3) 对矩阵XX^{T}进行特征值分解

4)取出最大的n'个特征值对应的特征向量(w_{1},w_{2},...,w_{​{n}'}), 将所有的特征向量标准化后,组成特征向量矩阵W。

5)对样本集中的每一个样本x^{(1)},转化为新的样本z^{(i)} = W^{T} x^{(i)}

6) 得到输出样本集D′=(z^{(1)},z^{(2)},...,z^{(m)})

PCA算法的主要优点

1)仅仅需要以方差衡量信息量,不受数据集以外的因素影响。 

2)各主成分之间正交,可消除原始数据成分间的相互影响的因素。

3)计算方法简单,主要运算是特征值分解,易于实现。

PCA算法的主要缺点

1)主成分各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强。

2)方差小的非主成分也可能含有对样本差异的重要信息,因降维丢弃可能对后续数据处理有影响。


引用《主成分分析(PCA)原理总结

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值