sklearn.decomposition.PCA() #PCA降维,我们只需要指定我们需要降维到的维度,或者我们希望降维后的主成分方差和占原始维度所有特征方差和的比例阈值就可以了。
目的:高维度的数据保留下最重要的一些特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的。
PCA 通过正交变换将一组可能存在相关性的变量数据转换为一组不相关的变量,可以通过奇异值分解和特征分解进行。目的是为了使变换后的数据有更大的方差。
思想:将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。
所以,就是用原来的特征矩阵得到全新的正交阵。
方法:利用计算协方差矩阵的方法。
一、特征值分解矩阵
奇异值分解矩阵的步骤: