主成分分析(PCA,Principal Component Analysis)

本文深入探讨了数据降维的方法,包括主成分分析(PCA)、多维尺度(MDS)、线性判别分析(LDA)及非线性的等距离映射(ISOMAP)和局部线性嵌入(LLE)。详细讲解了PCA的数学原理,如协方差矩阵、特征值和特征向量的概念,以及如何通过奇异值分解求解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

数据降维方法

降维方法线性or非线性监督方式
主成分分析(Principal Component Analysis,PCA )线性无监督
MDS线性无监督
LDA线性有监督
等距离映射(isometric mapping,ISOMAP)非线性
局部线性嵌入(Local Linear Embedding,LLE)非线性

PCA主要思想和原理

样本XXX和样本YYY的协方差:
Cov(X,Y)=∑i=1n(Xi−Xˉ)(Yi−Yˉ)n−1Cov(X,Y)=\frac{\sum_{i=1}^n(X_i-\bar{X})(Y_i-\bar{Y})}{n-1}Cov(X,Y)=n1i=1n(XiXˉ)(YiYˉ)

对于一批nnn维的数据,其协方差矩阵为:
Cov=[cov(x,x)cov(x,y)cov(x,z)cov(y,x)cov(y,y)cov(y,z)cov(z,x)cov(z,y)cov(z,z)]Cov=\left[\begin{array}{ccc} cov(x,x)&cov(x,y)&cov(x,z)\\ cov(y,x)&cov(y,y)&cov(y,z)\\ cov(z,x)&cov(z,y)&cov(z,z) \end{array}\right]Cov=cov(x,x)cov(y,x)cov(z,x)cov(x,y)cov(y,y)cov(z,y)cov(x,z)cov(y,z)cov(z,z)

AX=λXAX=\lambda XAX=λX,则称λ\lambdaλAAA的特征值,XXX是对应的特征向量。实际上可以这样理解:矩阵AAA作用在它的特征向量XXX上,仅仅使得XXX的长度发生了变化,缩放比例就是相应的特征值λ\lambdaλ

AAAnnn阶可逆矩阵时,AAAP−1APP^{-1}APP1AP相似,相似矩阵具有相同的特征值。

特别地,当AAA是对称矩阵时,AAA的奇异值等于AAA的特征值,存在正交矩阵QQQQ−1=QTQ^{-1}=Q^TQ1=QT)使得:
QTAQ=[λ1λ2λ3]Q^TAQ=\left[\begin{array}{ccc} \lambda_1&&\\ &\lambda_2&\\ &&\lambda_3\\ \end{array}\right]QTAQ=λ1λ2λ3

对A进行奇异值分解就能求出所有特征值和Q矩阵。

A∗Q=Q∗D,D是由特征值组成的对角矩阵

由特征值和特征向量的定义知,Q的列向量就是A的特征向量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值