PCA过程

PCA(主成分分析)是一种常见的降维技术,旨在通过线性投影将高维数据转换为低维表示,同时最大化数据在新维度上的方差。本文详细介绍了PCA的四个主要步骤:样本中心化、协方差矩阵计算、特征值分解及投影矩阵构建,帮助读者深入理解PCA的工作原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

PCA(Principal Component Analysis),也称为主成分分析。降维可以解决三类问题:

  • 缓解维度灾难
  • 在压缩数据的同时让信息损失最小化
  • 维度少的数据通过可视化更容易理解

从数学的角度来看,PCA的目标是什么呢?它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,即把原先的n个特征用数目更少的m个特征取代,并且,我们希望在所投影的维度上数据的方差最大,尽量使新的m个特征互不相关。

那么,PCA降维过程的一般步骤是什么呢?一般可分为四个步骤:

  • 对样本进行中心化操作,方便方差的计算
  • 计算样本的协方差矩阵
  • 对协方差矩阵做特征值分解
  • 取最大的m个特征值对应的特征向量,构造投影矩阵W

在这里,说明几个术语:

  • 方差(Variance)是度量一组数据分散的程度。方差是各个样本与样本均值的差的平方和的均值。
  • 协方差(Covariance)是度量两个变量的变动的同步程度,也就是度量两个变量线性相关性程度。如果两个变量的协方差为0,则统计学上认为二者线性无关。如果协方差大于0表示正相关,小于0表示负相关。
  • 协方差矩阵(Covariance matrix)由数据集中两两变量的协方差组成。
  • 特征向量,存在非零矩阵 A 和标量λ,若有向量 x 且满足Ax=λx, 那么 x 就为特征向量、λ为特征值。矩阵其实就是一种将某个向量变换为另一个的方法,另外我们也可以将矩阵看作作用于所有数据并朝向某个方向的力。通俗地说,矩阵就是一阵风,它通过有形的力量得出可见的结果。而这一阵风所吹向的方向就是特征向量,因此特征向量就表明矩阵所要变换的方向。
  • 寻找协方差矩阵的特征向量和特征值就等价于拟合一条能保留最大方差的直线或主成分。因为特征向量追踪到了主成分的方向,而最大方差和协方差的轴线表明了数据最容易改变的方向。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值