特征值分解、奇异值分解(SVD)、投影相关理解

本文深入讲解了矩阵分解的两种核心方法:特征值分解与奇异值分解。特征值分解适用于方阵,揭示矩阵变化的主要方向;奇异值分解则适用于任意矩阵,通过分解揭示矩阵的内在结构。此外,还介绍了矩阵投影的概念及其计算方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 特征值分解(要求矩阵为方正)

若向量v是方正A的特征向量,则A x=\lambda v,则$\lambda$为特征向量v对应的特征值,矩阵的一组特征向量两两正交。特征值分解为:

A=Q\Sigma Q^{-1}

其中Q为特征向量组成的矩阵,\Sigma为对角阵,主对角线上的每一个元素对应一个特征值。\Sigma特征值对应的特征向量描述了矩阵的变化方向(特征值由大到小排列,因此变换由主要到次要排列)。

通过特征值分解得到的前N个特征向量(矩阵的最主要的N个变换方向),利用N个变换方向,可以近似这个矩阵(变换),因而可以看作提取了这个矩阵最重要的特征。

2.奇异值分解(任意矩阵)

任意矩阵A分解为:

A=U\Sigma V^*

假设A是一个N*M的矩阵,则U为一个N*N的酉矩阵(real or complex unitary matrix,标准正交矩阵),\Sigma为一个N*M的对角阵(元素为非负实数),V为一个M*M的酉矩阵,V^*表示V的共轭转置。U(V)里面的列向量称为左(右)奇异向量。\Sigma对角元素称为A的奇异值。

3. 投影:

矩阵A的投影矩阵为P=A(A^*A)^{-1}A^*

标准正交基U的投影矩阵为P=U(U^*U)^{-1}U^*=UU^*,因为U^*U=I

 

参考网上博客内容。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值