奇异值分解及其神经网络算法解析
1. 引言
在Oja和Sanger的开创性工作之后,主成分分析(PCA)的神经网络学习算法得到了广泛发展。然而,执行奇异值分解(SVD)的神经网络领域却相对较少受到关注。但实际上,SVD在回归、逼近方法、数据压缩和其他信号处理应用中起着至关重要的作用。
2. 奇异值分解基础
奇异值分解是将一个矩阵分解为三个矩阵的乘积,对于一个 $m \times n$ 的实矩阵 $A$,其奇异值分解可以表示为:
$A = U S V^T + U_2S_2V_2^T$
其中,$U = [\mathbf{\hat{u}} 1, \mathbf{\hat{u}}_2, \ldots, \mathbf{\hat{u}}_M] \in \mathbb{R}^{m \times M}$ 是由左主奇异向量组成的矩阵,$S = \text{diag}(\mathbf{\hat{\sigma}}_1, \mathbf{\hat{\sigma}}_2, \ldots, \mathbf{\hat{\sigma}}_M) \in \mathbb{R}^{M \times M}$ 是对角线上为主要奇异值的矩阵,$V = [\mathbf{\hat{v}}_1, \mathbf{\hat{v}}_2, \ldots, \mathbf{\hat{v}}_M] \in \mathbb{R}^{n \times M}$ 是由右主奇异向量组成的矩阵。$U_2$、$S_2$ 和 $V_2$ 对应于SVD的次要部分。$\hat{A} = U S V^T$ 是 $A$ 的最佳秩 - $M$ 近似,其中 $M \leq p = \min{m, n}$。左奇异向量和右奇异向量
超级会员免费看
订阅专栏 解锁全文
15

被折叠的 条评论
为什么被折叠?



