降维技术:PCA、随机投影与压缩感知的深入解析
1. 降维概述
降维是将高维空间中的数据映射到低维空间的过程,它与信息论中的(有损)压缩概念密切相关。进行降维主要有以下几个原因:
- 计算挑战 :高维数据会带来计算上的困难。
- 泛化能力 :在某些情况下,高维数据可能导致学习算法的泛化能力变差,例如最近邻分类器的样本复杂度会随维度呈指数增长。
- 数据解释与可视化 :降维有助于数据的解释、发现数据的有意义结构以及进行可视化展示。
在降维方法中,通常是对原始数据应用线性变换。若原始数据位于 $R^d$ 空间,要将其嵌入到 $R^n$($n < d$)空间,就需要找到一个矩阵 $W \in R^{n,d}$ 来实现映射 $x \mapsto Wx$。选择 $W$ 的一个自然准则是能够合理地恢复原始的 $x$,但一般来说,从 $Wx$ 精确恢复 $x$ 是不可能的。
2. 主成分分析(PCA)
2.1 PCA 原理
设 $x_1, \ldots, x_m$ 是 $R^d$ 空间中的 $m$ 个向量,我们希望通过线性变换降低这些向量的维度。矩阵 $W \in R^{n,d}$($n < d$)诱导映射 $x \mapsto Wx$,其中 $Wx \in R^n$ 是 $x$ 的低维表示。然后,使用矩阵 $U \in R^{d,n}$ 从压缩后的向量近似恢复原始向量。在 PCA 中,我们要找到压缩矩阵 $W$ 和恢复矩阵 $U$,使得原始向量和恢复向量之间的总平方距离最小,即求解以下问题:
超级会员免费看
订阅专栏 解锁全文
13

被折叠的 条评论
为什么被折叠?



