2021-05-28PCA降维

本文介绍了sklearn.decomposition.PCA用于降维的重要性和方法,包括正交变换、奇异值分解和特征分解。通过减少噪声并保留关键信息,提升数据处理效率,主要探讨了如何通过设置目标维度或方差阈值来实现数据压缩。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

sklearn.decomposition.PCA() #PCA降维,我们只需要指定我们需要降维到的维度,或者我们希望降维后的主成分方差和占原始维度所有特征方差和的比例阈值就可以了。

目的:高维度的数据保留下最重要的一些特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的。

PCA 通过正交变换将一组可能存在相关性的变量数据转换为一组不相关的变量,可以通过奇异值分解和特征分解进行。目的是为了使变换后的数据有更大的方差。

思想:将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。
所以,就是用原来的特征矩阵得到全新的正交阵。

方法:利用计算协方差矩阵的方法。

一、特征值分解矩阵
在这里插入图片描述
奇异值分解矩阵的步骤:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值