目录
一、PCA简介
主成分分析是一种常用的无监督学习方法。它利用正交变换,把由线性相关变量表示的观测数据转换成少数几个由线性无关变量表示的数据,线性无关的变量称为主成分。由于主成分个数通常少于原始变量的个数,所以这一方法属于降维。
首先需要明确的是,线性无关的向量在空间中是相互垂直的,那么当我们确定一个降维后表示数据的向量的方向后,那么其他维度的方向也是比较明确了的,只需要在该向量的m个正交向量中选出k个线性无关的即可。也就是重新选择一组正交基(x1,x2,x3......xk)(k<m),当然这k个向量需要尽可能多的保留原原来数据的信息。
接下来我们确定向量的方向。我们要尽可能多的保留原来数据下信息,这样就需要原来数据在新确定的方向上的投影的分散程度越大越好,而有一个衡量数据分散程度的量我们很熟悉,那就是方差。
方差越大,数据的分散程度越大。
二、PCA实例推导
我们以一组数据来实际讲解一