基于特征向量和特征值的线性变换:PCA与KLT的原理及应用
1. 主成分分析(PCA)概述
主成分分析(PCA)是一种基于协方差矩阵特征值的数据简化统计方法。早期工作可追溯到1901年Pearson的研究,1933年心理学家Hotelling进一步发展了该方法并命名为“主成分分析”,在某些情况下也被称为“Hotelling变换”。随后,Karhunen和Loève开发了类似的变换,从连续信号中获得一组显著且不相关的系数。基于特征向量分析生成原始信号不相关显著系数的这些变换,在文献中统称为主成分分析(PCA),国际文献中也常用KLT(Karhunen - Loève变换)来称呼。
与之前介绍的酉变换(如DFT、DCT、DST等)不同,这些酉变换的变换矩阵与输入数据无关,目标是将数据投影到新空间,尽可能将信息集中在少数显著系数中。而KLT变换基于特征空间的概念,能实现具有两个基本特征的酉变换:输入数据的完全去相关和信息内容的最大可能压缩。
PCA变换的一般公式为:
[F_{PCA}(u, v) = \sum_{j=0}^{N - 1}\sum_{k=0}^{N - 1}S(j, k)A(j, k; u, v)]
其中(u, v = 1, 2, \cdots, N),(S(j, k))是输入图像,变换的核矩阵(A(j, k; u, v))需满足特征值方程:
[\lambda(u, v)A(j, k; u, v) = \sum_{l=0}^{N - 1}\sum_{m=0}^{N - 1}K_{PCA}(j, k; l, m)A(l, m; u, v)]
这里(K_{PCA}(j, k; l, m))表示图像(S(j, k))的协方差矩阵,(\la
超级会员免费看
订阅专栏 解锁全文
20

被折叠的 条评论
为什么被折叠?



