奇异值分解笔记

奇异值分解(SVD)是线性代数中的一个重要概念,将任意实矩阵A分解为正交矩阵U、对角矩阵Σ和正交矩阵V的乘积。SVD在图像处理、数据分析等领域有广泛应用。通过寻找正交基,矩阵A可以表示为最简单的对角形式,其中U的列向量由A的特征向量归一化得到,V的列向量对应A的值域基。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考论文:Kalman D . A Singularly Valuable Decomposition: The SVD of a Matrix[J]. The College Mathematics Journal, 1996, 27(1):2-23.

1. 概述

对于任意实矩阵A_{m\times n},,对其进行奇异值分解,表示为

A=U\Sigma V^T                                                                                                                  (1)

其中U_{m\times m}V_{n\times n}是正交矩阵,\Sigma _{m\times n}是对角矩阵,且Σ中的非零元素\sigma _i在Σ 中的排列顺序是递减的,正数被称为A的奇异值,U和V的列向量分别被称为A的左奇异向量和右奇异向量。

为了形象地理解奇异值分解,可以把矩阵A_{m\times n}看做一次线性变换。下面插入讲解矩阵和线性变换之间的关系。

2. 矩阵和线性变换的关系

一个向量可以表示为由一组基向量线性组合而成,例如:

\begin{pmatrix} 2\\ 3 \end{pmatrix}=2\hat{i}+3\hat{j}=2\begin{pmatrix} 1\\ 0 \end{pmatrix} + 3\begin{pmatrix} 0\\ 1 \end{pmatrix}                                                                               (2)

其中\hat{i}=\begin{pmatrix} 1\\ 0 \end{pmatrix}\hat{j}=\begin{pmatrix} 0\\ 1 \end{pmatrix}就是一组基向量。上面这个式子也可以简化为:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值