PCA 主成分分析

问题定义:

若原始数据是 d 维的,我们希望找到一个压缩映射 W ∈ R n × d W \in \R^{n \times d} WRn×d 和 一个重建映射 U ∈ R d × n U \in \R^{d \times n} URd×n,使得压缩数据在解压后与原数据的误差最小: (1) arg ⁡ min ⁡ U , W ∑ i = 1 m ∣ ∣ x i − U W x i ∣ ∣ \arg \min_{U,W} \sum_{i=1}^m||x_i - UWx_i||\tag{1} argU,Wmini=1mxiUWxi(1)其中,m 为数据量。

引理

若 (U,W) 为上述问题的最优解,则 U 的列是正交归一的( U T U = I n U^TU = I_n UTU=In),且 W = U T W = U^T W=UT

根据上述引理,原问题变成 (2) arg ⁡ min ⁡ U ∈ R d × n ; U T U = I n ∑ i = 1 m ∣ ∣ x i − U U T x i ∣ ∣ \arg \min_{U \in \R^{d \times n}; U^TU = I_n} \sum_{i=1}^m||x_i - UU^Tx_i||\tag{2} argURd×n;UTU=Inmini=1mxiUUTxi(2)

变形

∑ i = 1 m ∣ ∣ x i − U U T x i ∣ ∣ = ∑ i = 1 m ( x i − U U T x i ) T ( x i − U U T x i ) = ∑ i = 1 m ( x i T x i − 2 x i T U U T x i + x i T U U T U U T x i ) = ∑ i = 1 m ( x i T x i − x i T U U T x i ) = ∑ i = 1 m x i T x i − ∑ i = 1 m t r a c e { x i T U U T x i } = ∑ i = 1 m x i T x i − ∑ i = 1 m t r a c e { U U T x i x i T } = ∑ i = 1 m x i T x i − t r a c e { U U T ∑ i = 1 m x i x i T } ( 记 X = ∑ i = 1 m x i x i T ) = ∑ i = 1 m x i T x i − t r a c e { U T X U } \sum_{i=1}^m||x_i - UU^Tx_i|| \\=\sum_{i=1}^m(x_i - UU^Tx_i)^T(x_i - UU^Tx_i) \\= \sum_{i=1}^m(x_i^Tx_i -2x_i^TUU^Tx_i +x_i^TUU^TUU^Tx_i) \\= \sum_{i=1}^m(x_i^Tx_i -x_i^TUU^Tx_i ) \\= \sum_{i=1}^mx_i^Tx_i - \sum_{i=1}^mtrace\{x_i^TUU^Tx_i \} \\= \sum_{i=1}^mx_i^Tx_i - \sum_{i=1}^mtrace\{UU^Tx_ix_i^T \} \\= \sum_{i=1}^mx_i^Tx_i - trace\{UU^T\sum_{i=1}^mx_ix_i^T \} \\(记 X = \sum_{i=1}^mx_ix_i^T) \\=\sum_{i=1}^mx_i^Tx_i - trace\{U^TXU\} i=1mxiUUTxi=i=1m(xiUUTxi)T(xiUUTxi)=i=1m(xiTxi2xiTUUTxi+xiTUUTUUTxi)=i=1m(xiTxixiTUUTxi)=i=1mxiTxii=1mtrace{xiTUUTxi}=i=1mxiTxii=1mtrace{UUTxixiT}=i=1mxiTxitrace{UUTi=1mxixiT}X=i=1mxixiT=i=1mxiTxitrace{UTXU}所以,问题 (2) 等价于 arg ⁡ max ⁡ U ∈ R d × n ; U T U = I n t r a c e { U T X U } \arg \max_{U \in \R^{d \times n}; U^TU = I_n} trace\{U^TXU\} argURd×n;UTU=Inmaxtrace{UTXU}等价于
arg ⁡ max ⁡ u i ⊥ u j ; ∣ ∣ u i ∣ ∣ = 1 ∑ i = 1 n u i T X u i \arg \max_{u_i \perp u_j; ||u_i||=1}\sum_{i=1}^n u_i^TXu_i arguiuj;ui=1maxi=1nuiTXui
显然,该问题的最优解为 X 的前 n 大的特征值对应的特征向量。此时, max ⁡ u i ⊥ u j ; ∣ ∣ u i ∣ ∣ = 1 ∑ i = 1 n u i T X u i = ∑ i = 1 n λ [ i ] \max_{u_i \perp u_j; ||u_i||=1}\sum_{i=1}^n u_i^TXu_i \\ =\sum_{i=1}^n \lambda_{[i]} uiuj;ui=1maxi=1nuiTXui=i=1nλ[i]其中, λ [ i ] \lambda_{[i]} λ[i] 表示 第 i 大的特征值

根据 X X T 和 X T X XX^T 和 X^TX XXTXTX 的特征向量之间的关系,可以做一些优化:

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

颹蕭蕭

白嫖?

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值