Singular Value Decomposition

本文探讨了对称矩阵的对角化定理,以及奇异值分解在实数矩阵中的应用。通过实例解析,展示了如何找到正交矩阵使得矩阵对角化,并揭示了奇异值在矩阵信息表示中的重要性,特别提到了奇异值分解在图片压缩中的实际运用。

奇异值分解(Singular Value Decomposition)

对称矩阵的对角化

定理:设 AAAnnn 阶对称矩阵,则必有正交矩阵 PPP,使 P−1AP=PTAP=ΛP^{-1}AP=P^TAP=\varLambdaP1AP=PTAP=Λ(也可写作 A=PΛPTA=P\varLambda P^TA=PΛPT),其中 Λ\varLambdaΛ 是以 AAAnnn 个特征值为对角元的对角矩阵

PTAP=ΛP^TAP=\varLambdaPTAP=ΛAP=PΛAP=P\varLambdaAP=PΛ,并将 PPP 使用列向量表示 P=(p1,p2,...,pn)P=(p_1,p_2,...,p_n)P=(p1,p2,...,pn),即得:
A(p1,p2,...,pn)=(p1,p2,...,pn)[λ1λ2⋱λn] A\left(p_1,p_2,...,p_n\right)=\left(p_1,p_2,...,p_n\right) \begin{bmatrix} \lambda_1&&& \\ &\lambda_2&& \\ &&\ddots& \\ &&&\lambda_n \\ \end{bmatrix} A(p1,p2,...,pn)=(p1,p2,...,pn)λ1λ2λn
于是 Api=λipi (i=1,2,...,n)Ap_i=\lambda_ip_i \ (i=1,2,...,n)Api=λipi (i=1,2,...,n)PPP 的列向量 pip_ipiAAA 对应于特征值 λi\lambda_iλi 的特征向量。

奇异值分解

AAAm×nm\times nm×n 的实数矩阵,希望将其分解为:
A=UΣVT A=U\Sigma V^T A=UΣVT
其中 UUUVVV 都是正交矩阵,U∈Rm×mU\in \mathbb{R}^{m\times m}URm×m 称为左奇异矩阵,V∈Rn×nV\in \mathbb{R}^{n\times n}VRn×n 称为右奇异矩阵,Σ∈Rm×n\Sigma \in \mathbb{R}^{m\times n}ΣRm×n 仅在主对角线上有非零元素,称之为奇异值。

假定 m<nm<nm<n (下同),则(其中 σ1,σ2,...,σm\sigma_1,\sigma_2,...,\sigma_mσ1,σ2,...,σm 即为奇异值):
Σ=[σ1σ2⋱σm]m×n \Sigma= \begin{bmatrix} \sigma_1 &&&&\\ &\sigma_2 &&&\\ &&\ddots &&\\ &&&\sigma_m &&\\ \end{bmatrix}_{m\times n} Σ=σ1σ2σmm×n
求解 U,Σ,VU,\Sigma,VU,Σ,V
AAT=UΣVTVΣTUT=UΣΣTUTATA=VΣTUTUΣVT=VΣTΣVT AA^T=U\Sigma V^TV\Sigma^TU^T=U\Sigma\Sigma^T U^T \\ A^TA=V\Sigma^TU^TU\Sigma V^T=V\Sigma^T\Sigma V^T AAT=UΣVTVΣTUT=UΣΣTUTATA=VΣTUTUΣVT=VΣTΣVT
其中:
ΣΣT=[σ12σ22⋱σm2]m×mΣTΣ=[σ12σ22⋱σm20⋱]n×n \Sigma\Sigma^T= \begin{bmatrix} \sigma_1^2 &\\ &\sigma_2^2 &\\ &&\ddots &\\ &&&\sigma_m^2 \\ \end{bmatrix}_{m\times m} \Sigma^T\Sigma= \begin{bmatrix} \sigma_1^2 &&&&&\\ &\sigma_2^2 &&&&\\ &&\ddots &&&\\ &&&\sigma_m^2 &&\\ &&&&0 &\\ &&&&&\ddots \\ \end{bmatrix}_{n\times n} ΣΣT=σ12σ22σm2m×mΣTΣ=σ12σ22σm20n×n
AAT,ATAAA^T,A^TAAAT,ATA 都是对称矩阵,使用对称矩阵的可对角化的性质,可求出 U,VU,VU,VΣΣT\Sigma\Sigma^TΣΣTΣTΣ\Sigma^T\SigmaΣTΣ 对角非零元素即为奇异值的平方。

从以上讨论中可以得出:

  • UUU 的列向量为 AATAA^TAAT 的特征向量
  • VVV 的列向量为 ATAA^TAATA 的特征向量,则 VTV^TVT 的行向量为 ATAA^TAATA 的特征向量
奇异值分解的应用

奇异值可以作为矩阵 AAA 的代表值,它记录了 AAA 中的信息,且奇异值越大,它代表的信息越多,而 Σ\SigmaΣ 主对角线上的奇异值从左上到右下依次递减:
在这里插入图片描述

只用取前面一部分奇异值,即可记录矩阵 AAA 的大部分信息。

应用:图片压缩

### 回答1: 奇异值分解(Singular Value Decomposition,SVD)是一种矩阵分解的方法,将一个矩阵分解为三个矩阵的乘积,其中一个矩阵是正交矩阵,另外两个矩阵是对角矩阵。SVD在数据分析、信号处理、图像处理等领域有广泛的应用。它可以用于降维、数据压缩、矩阵近似、特征提取等任务。 ### 回答2: 奇异值分解(Singular Value Decomposition,SVD)是矩阵分解的一种方法,它可以将一个复杂的数据矩阵分解成三个简单的矩阵的乘积的形式。这三个矩阵包括:左奇异向量矩阵、奇异值矩阵和右奇异向量矩阵。 在SVD中,奇异值是矩阵的特征值,奇异向量是矩阵的特征向量,而左奇异向量和右奇异向量分别代表数据矩阵在两个不同空间上的特殊变换。在数据处理和分析中,SVD可以用于减少噪声,压缩数据,以及解决线性方程组等问题。 SVD最初由数学家Eckart和Young在1936年提出,而在20世纪60年代和70年代,它才得到了广泛的应用。目前,SVD已经成为了很多数据分析、机器学习和人工智能领域中最常用的技术之一。 在实际应用中,SVD可以用于图像处理、推荐系统、自然语言处理、文本分类、维度约简和信号处理等领域。例如,在推荐系统中,SVD可以用于预测用户对产品的评分,从而为用户推荐最符合他们兴趣的商品。在文本分类中,SVD可以将高维的单词向量映射到低维空间中,从而提高分类的性能。 虽然SVD在许多应用中取得了成功,但其计算代价很高,因此通常需要进行优化以提高效率。一些优化技术包括截断SVD(Truncated SVD)、随机SVD(Randomized SVD)和增量SVD(Incremental SVD)等。这些技术可以降低计算复杂度和内存消耗,提高SVD的速度和可用性。 ### 回答3: 奇异值分解(singular value decomposition, 简称SVD)是一种用于矩阵分解的数学方法,它将一个复杂的矩阵分解成三个部分:U、Σ、V。其中U和V都是正交矩阵,而Σ是一个对角矩阵,对角线上的元素称为奇异值。SVD的应用广泛,例如在图像压缩、信号处理、语音识别、推荐系统等领域都有重要的作用。 SVD的本质目标是将矩阵M表示为下述的累加形式: M = UΣV^T 其中,U和V都是矩阵,Σ是一个对角线上元素按从大到小排列的矩阵,它们的关系是这样的:矩阵M的秩r等于Σ中非零元素的个数。因此,奇异值从大到小表示了矩阵中的信号能量大小,而U和V则表示了信号在不同的方向上的分解。 SVD可以应用于很多问题中。例如,在图像压缩中,可以使用SVD对图像矩阵进行分解,并选取前k个奇异值对应的列向量,再把它们相乘,得到一个近似于原图像的低维矩阵,从而实现图像的压缩。在推荐系统中,SVD可以用来将用户评价和物品特征分解成低维矩阵,从而实现对用户和物品的推荐。此外,SVD还被广泛地应用于语音识别、图像识别等领域。 总的来说,SVD是一种强有力的数学工具,它可以对矩阵进行分解,并提取出有用的信息。由于它的广泛应用和独特的分解方式,SVD也成为了计算机科学和应用数学中的一个热门研究领域。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值