对于PCA计算过程的理解

对于PCA计算过程的理解

参考了诸多关于pca的学习资料,总算是有点认识了,今天参考:
http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html
对着把这个计算和恢复过程做了一遍,加深印象。
数据都是直接拿上面文章的。

一、样本整理
这里写图片描述

这里写图片描述

二、投影到1维
1、计算投影到1维后的数据
这里写图片描述

这里写图片描述

2、恢复数据
这里写图片描述

这里写图片描述

这里写图片描述

三、投影到2维
1、计算投影到2维后的数据
这里写图片描述

2、恢复数据
这里写图片描述

这里写图片描述

### 主成分分析 (PCA) 的概念 主成分分析(Principal Component Analysis, PCA)是一种用于分析定量数据的多元统计技术[^1]。其目标是通过线性变换将高维数据转换到一个新的坐标系中,在这个新坐标系下,尽可能多地保留原始数据的信息并降低维度。 具体来说,PCA试图找到一组正交基向量作为新的轴方向,使得投影后的样本方差最大化。这些新的轴被称为“主成分”,它们彼此之间相互垂直,并按照能够解释的数据变异程度依次排列。第一主成分捕捉到了最大可能的变化;第二主成分则是在与第一个主成分正交的前提下捕获剩余的最大变化,以此类推。 ### 简单实现示例 下面是一个基于Python和`scikit-learn`库来执行PCA过程: ```python from sklearn.decomposition import PCA import numpy as np # 假设我们有一个形状为(n_samples, n_features)的数据集data_matrix np.random.seed(0) data_matrix = np.random.rand(100, 6) pca = PCA(n_components=2) # 设置要减少至的维度数 reduced_data = pca.fit_transform(data_matrix) print("Reduced Data Shape:", reduced_data.shape) print("Explained Variance Ratio:", pca.explained_variance_ratio_) ``` 这段代码展示了如何利用现成工具快速完成一次降维操作。其中`n_components`参数指定了希望得到多少个主成分,而`explained_variance_ratio_`给出了各个主成分所占总方差的比例。 对于更深入的理解以及手动生成PCA的结果,可以参考具体的数学推导过程[^3]。这通常涉及计算协方差矩阵、求解特征值问题等步骤。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值