27、奇异值分解及其神经网络算法解析

奇异值分解及其神经网络算法解析

1. 引言

在Oja和Sanger的开创性工作之后,主成分分析(PCA)的神经网络学习算法得到了广泛发展。然而,执行奇异值分解(SVD)的神经网络领域却相对较少受到关注。但实际上,SVD在回归、逼近方法、数据压缩和其他信号处理应用中起着至关重要的作用。

2. 奇异值分解基础

奇异值分解是将一个矩阵分解为三个矩阵的乘积,对于一个 $m \times n$ 的实矩阵 $A$,其奇异值分解可以表示为:
$A = U S V^T + U_2S_2V_2^T$
其中,$U = [\mathbf{\hat{u}} 1, \mathbf{\hat{u}}_2, \ldots, \mathbf{\hat{u}}_M] \in \mathbb{R}^{m \times M}$ 是由左主奇异向量组成的矩阵,$S = \text{diag}(\mathbf{\hat{\sigma}}_1, \mathbf{\hat{\sigma}}_2, \ldots, \mathbf{\hat{\sigma}}_M) \in \mathbb{R}^{M \times M}$ 是对角线上为主要奇异值的矩阵,$V = [\mathbf{\hat{v}}_1, \mathbf{\hat{v}}_2, \ldots, \mathbf{\hat{v}}_M] \in \mathbb{R}^{n \times M}$ 是由右主奇异向量组成的矩阵。$U_2$、$S_2$ 和 $V_2$ 对应于SVD的次要部分。$\hat{A} = U S V^T$ 是 $A$ 的最佳秩 - $M$ 近似,其中 $M \leq p = \min{m, n}$。左奇异向量和右奇异向量

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值