摘要
本文给出 PCA最大方差理论求解方法.
相关
配套代码, 请参考文章 :
纯Python和scikit-learn对比实现PCA特征降维
系列文章索引 :
https://blog.youkuaiyun.com/oBrightLamp/article/details/85067981
正文
1. 降维方法
对于给定的一组数据点, 以矩阵 X m × n X_{m \times n} Xm×n 表示 :
X = ( X 1 , X 2 , ⋯   , X m ) T X = (X_1, X_2,\cdots,X_m)^T X=(X1,X2,⋯,Xm)T
X i X_i Xi 为行向量, 中心化后的表示为 :
M m × n = ( X 1 − μ 1 , X 2 − μ 2 , X 3 − μ 3 , ⋯   , X m − μ m ) T M_{m \times n}= (X_1-\mu_1,X_2-\mu_2,X_3-\mu_3,\cdots,X_m-\mu_m)^T Mm×n=(X1−μ1,X2−μ2,X3−μ3,⋯,Xm−μm)T
其中 μ i \mu_i μi 是 X i X_i Xi 的平均值
μ i = m e a n ( X i ) = 1 n ∑ j = 1 j = n x i j \mu_i=mean(X_i) = \frac{1}{n}\sum_{j = 1}^{j = n}x_{ij} μi=mean(Xi)=n1j=1∑j=nxij<