文章目录
1. 奇异值分解
现在我们用的是一个m行n列的矩阵A,那么我们计算下特征值方程:
A m × n x n × 1 = λ x n × 1 ; b m × 1 = A m × n x n × 1 \begin{equation} A_{m\times n}x_{n\times 1}=\lambda x_{n\times 1};b_{m\times 1}=A_{m\times n}x_{n\times 1} \end{equation} Am×nxn×1=λxn×1;bm×1=Am×nxn×1
- 当 m ≠ n m\neq n m=n时, b m × 1 ≠ λ x n × 1 b_{m\times 1}\neq \lambda x_{n\times 1} bm×1=λxn×1,所以当A为长方形矩阵的时候,由于向量大小的原因,我们无法使用 A x = λ x Ax=\lambda x Ax=λx公式,为了解决如下问题,我们引入奇异值分解SVD。
A m × n = U m × m Σ m × n V n × n T , U U T = I m × m , V V T = I n × n \begin{equation} A_{m\times n}=U_{m\times m}\Sigma_{m\times n}V^T_{n\times n},UU^T=I_{m\times m},VV^T=I_{n\times n} \end{equation} Am×n=Um×mΣm×nVn×nT,UUT=Im×m,VVT=In×n
1.1 SVD求解
假设我们有任意矩阵A,可以得到SVD分解, A = U Σ V T A=U\Sigma V^T A=UΣVT,那么我们可以构造对称矩阵进行求解; U U T = I , V V T = I UU^T=I,VV^T=I UUT=I,VVT=I
A A T = U Σ V T V Σ T U T = U ( Σ Σ T ) U T \begin{equation} AA^T=U\Sigma V^TV\Sigma^TU^T=U(\Sigma\Sigma^T)U^T \end{equation} AAT=UΣVTVΣTUT=U(ΣΣT)UT
- 我们可以把 A A T AA^T AAT看作是矩阵A右乘一个矩阵 A T A^T AT,所以可以得到 A A T AA^T AAT为矩阵A的列向量的线性组合,所以得到的U肯定在A的列向量空间中。这样可以得到 U , Σ U,\Sigma U,Σ
A T A = V Σ T U T U Σ V T = V ( Σ T Σ ) V T \begin{equation} A^TA=V\Sigma^TU^TU\Sigma V^T=V(\Sigma^T\Sigma) V^T \end{equation} ATA=VΣTUTUΣVT=V(ΣTΣ)VT - 我们可以把 A T A A^TA ATA看作是矩阵A左乘一个矩阵 A T A^T AT,所以可以得到 A T A A^TA ATA为矩阵A的行向量的线性组合,所以得到的V肯定在A的行向量空间中。这样可以得到 V , Σ V,\Sigma V,Σ
- 最后我们通过验证 A v = σ u Av=\sigma u Av=σu来验证 σ \sigma σ 的符号。
-奇异值SVD分解后矩阵向量分布情况如图:

- 我们发现,对于矩阵A的分解来说,有部分向量 u r + 1 ⋯ u m u_{r+1}\cdots u_m ur+1⋯um对于与 σ r + 1 = ⋯ = σ n = 0 \sigma_{r+1}=\cdots=\sigma_n=0 σr+1=⋯=σn=0,所以这部分的向量其实是 N ( A T ) N(A^T) N(AT)零空间向量,所以我们希望更一步进行压缩矩阵,我们本身希望用非零的特征值,具体公式如下:
A v 1 = σ 1 u 1 , A v 2 = σ 2 u 2 , ⋯ A v r = σ r u r \begin{equation} Av_1=\sigma_1 u_1,Av_2=\sigma_2 u_2,\cdots Av_r=\sigma_r u_r \end{equation} Av1=σ1u1,Av2=σ2u2,⋯Avr=σrur - 整理可得如下:
A [ v 1 v 2 ⋯ v r r o w − s p a c e ] = [ u 1 u 2 ⋯ u r c o l u m n − s p a c e ] [ σ 1 σ 2 ⋱ σ r ] → A V r = U r Σ r \begin{equation} A\begin{bmatrix}v_1&v_2&\cdots&v_r\\\\&row-space\end{bmatrix}=\begin{bmatrix}u_1&u_2&\cdots&u_r\\\\&column-space\end{bmatrix}\begin{bmatrix}\sigma_1&\\\\&\sigma_2\\\\&&\ddots\\\\&&&\sigma_r\end{bmatrix}\rightarrow AV_r=U_r\Sigma_r \end{equation} A

最低0.47元/天 解锁文章
1004

被折叠的 条评论
为什么被折叠?



