耦合主成分分析及统一耦合特征对提取算法
在信号处理和机器学习领域,主成分分析(PCA)和最小成分分析(MCA)是重要的技术,用于数据降维、特征提取等。然而,传统的非耦合算法存在速度稳定性问题,而耦合算法能够在一定程度上缓解这一问题。本文将介绍几种耦合算法,包括ALA算法、Nguyen的耦合广义特征对提取算法、耦合奇异值分解算法,以及统一耦合的特征对提取算法。
1. ALA算法
1.1 线性神经元权重向量学习规则
线性神经元通过权重向量 $w$ 和输入向量 $x$ 的标量积 $y = w^T x$ 计算输出 $y$。在对权重向量长度的时间导数分析中发现,权重向量长度通常会波动。通过在平均系统中进一步近似 $w^T w \approx 1$(在平稳点附近满足),可以得到以下学习规则系统:
$\dot{w} = C w k^{-1} - w w^T C w k^{-1}$
$\dot{k} = w^T C w - k$
这个学习规则系统被称为ALA算法。
1.2 算法分析
该系统的雅可比矩阵的特征值近似相等,并且与协方差矩阵的特征值基本无关。对应的在线系统为:
$\dot{w} = c y k^{-1} (x - w y)$
$\dot{k} = c (y^2 - k)$
可以将ALA算法解释为Oja的PCA规则的一个实例。然而,当尝试将该系统转换为在线规则时,会遇到问题,因为方程中包含逆协方差矩阵 $C^{-1}$,难以用包含输入向量 $x$ 的量来替换。因此,MCA系统(8.4)和(8.5)没有在线版本。尽管使用了ALA风格的归一化,但不同特征方向的收敛速度仍然取决于协方差矩
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



