【ML】Principle Component Analysis 主成分分析

PCA(主成分分析)是数据分析中的关键方法,用于高维数据降维,提取主要特征。线性PCA通过线性变换降低数据维度,而KernelPCA则引入核技巧处理非线性问题。线性PCA涉及线性编码和解码,目标是最小化重构误差。PCA的经典解决方案包括计算样本均值、协方差矩阵及其特征值分解。若数据维度远大于样本数量,计算特征值分解会变得困难,这时可以考虑使用非线性降维方法如KernelPCA。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

PCA(Principal Component Analysis) 是一种常见的数据分析方式,常用于高维数据的降维,可用于提取数据的主要特征分量。

首先介绍一些关于线性降维的基本思想,用于线性PCA的实现。在文章后半部分会总结非线性PCA的实现方法,即Kernel PCA。

Linear PCA

Linear dimensionality reduction

Dimentionality reduction

Map the dataset with dimension d to the dataset with dimension k, and d > k.

x = ( x 1 ⋮ x d ) d × 1 → ( y ^ 1 ⋮ y ^ k ) k × 1 = y ^ ,   k ⩽ d x = \begin{pmatrix} x_{1}\\ \vdots \\ x_{d} \end{pmatrix}_{d \times 1} \rightarrow \begin{pmatrix} \hat{y}_{1}\\ \vdots \\ \hat{y}_{k} \end{pmatrix}_{k \times 1} = \hat{y}, \ k \leqslant d x=x1xdd×1y^1y^kk×1=y^, kd

Linear Encoding / Embedding

y ^ = b + W T x b = ( b 1 ⋮ b k ) k × 1     W = ( ∣ . . . ∣ w 1 . . . w k ∣ . . . ∣ ) d × k \hat{y} = b + W^{T}x \newline b = \begin{pmatrix} b_{1} \\ \vdots \\ b_{k} \end{pmatrix}_{k \times 1} \ \ \ W = \begin{pmatrix} | & ...& | \\ w_{1} & ... &w_{k} \\ | &... & | \end{pmatrix} _{d \times k} y^=b+WTxb=b1bkk×1   W=w1.........wkd×k
将 X 数据集使用线性关系映射到 Y上,使维度降低。

Linear Decoding / Reconstruction

y ^ = ( y ^ 1 ⋮ y ^ k ) k × 1 → ( x ^ 1 ⋮ x ^ d ) d × 1 = x ^ ,    d ⩾ k \hat{y} = \begin{pmatrix} \hat{y}_{1} \\ \vdots \\ \hat{y}_{k} \end{pmatrix}_{k \times 1} \rightarrow \begin{pmatrix} \hat{x}_{1} \\ \vdots \\ \hat{x}_{d} \end{pmatrix}_{d \times 1} = \hat{\bold{x}}, \ \ d \geqslant k y^=y^1y^

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值