sklearn.decomposition.PCA() #PCA降维,我们只需要指定我们需要降维到的维度,或者我们希望降维后的主成分方差和占原始维度所有特征方差和的比例阈值就可以了。
目的:高维度的数据保留下最重要的一些特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的。
PCA 通过正交变换将一组可能存在相关性的变量数据转换为一组不相关的变量,可以通过奇异值分解和特征分解进行。目的是为了使变换后的数据有更大的方差。
思想:将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。
所以,就是用原来的特征矩阵得到全新的正交阵。
方法:利用计算协方差矩阵的方法。
一、特征值分解矩阵

奇异值分解矩阵的步骤:




本文介绍了sklearn.decomposition.PCA用于降维的重要性和方法,包括正交变换、奇异值分解和特征分解。通过减少噪声并保留关键信息,提升数据处理效率,主要探讨了如何通过设置目标维度或方差阈值来实现数据压缩。

被折叠的 条评论
为什么被折叠?



