机器学习之PCA:主成分分析(一、算法原理)

本文深入探讨了主成分分析(PCA)的原理与应用,详细解释了如何通过PCA将线性相关变量转换为线性无关的主成分,实现数据降维。通过实例演示PCA的具体计算过程,展示了降维后数据仍能保留大部分原始信息的特点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

一、PCA简介

二、PCA实例推导 

三、PCA的一般流程

四、PCA总结


一、PCA简介

主成分分析是一种常用的无监督学习方法。它利用正交变换,把由线性相关变量表示的观测数据转换成少数几个由线性无关变量表示的数据,线性无关的变量称为主成分。由于主成分个数通常少于原始变量的个数,所以这一方法属于降维。

首先需要明确的是,线性无关的向量在空间中是相互垂直的,那么当我们确定一个降维后表示数据的向量的方向后,那么其他维度的方向也是比较明确了的,只需要在该向量的m个正交向量中选出k个线性无关的即可。也就是重新选择一组正交基(x1,x2,x3......xk)(k<m),当然这k个向量需要尽可能多的保留原原来数据的信息。

接下来我们确定向量的方向。我们要尽可能多的保留原来数据下信息,这样就需要原来数据在新确定的方向上的投影的分散程度越大越好,而有一个衡量数据分散程度的量我们很熟悉,那就是方差。

                                                                           \large s^{2}=\frac{\sum_{i=1}^{n}(X_{i}-\overline{X})^{2}}{n-1}

方差越大,数据的分散程度越大。 

二、PCA实例推导 

我们以一组数据来实际讲解一

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值