先看结论:
A=∑i=1nλiviTuiA = \sum_{i=1}^n \lambda_i v_i^Tu_iA=i=1∑nλiviTui 其中 ui,viu_i, v_iui,vi 分别为 λi\lambda_iλi 的左、右特征向量。
特别地,当 A 为对称阵时,ui=viu_i = v_iui=vi
其实这是奇异值分解的特殊情况。
考虑 nnn 阶方阵AAA,对每一个特征值 λi\lambda_iλi,
右特征向量:
Avi=λivi,i=1,2,…,nAv_i = \lambda_i v_i,\quad i=1,2,\ldots,nAvi=λivi,i=1,2,…,n
左特征向量:
uiTA=λiuiT,i=1,2,…,nu_i^T A = \lambda_i u_i^T,\quad i=1,2,\ldots,nuiTA=λiuiT,i=1,2,…,n
对一个特征值而言,一定有左右两个特征向量,因为由右特征向量的定义:
(A−λiI)v=0(A-\lambda_i I)v = 0(A−λiI)v=0 意味着 A−λiIA-\lambda_i IA−λiI 的列线性相关,等价于不满秩,那么它必然行线性相关,则一定存在uuu,使得
uT(A−λiI)=0,u^T(A-\lambda_i I) =0,uT(A−λiI)=0,所以左右特征向量是同时存在的。
可以证明,特征值λi\lambda_iλi 对应的左特征向量 uiu_iui和特征值λj\lambda_jλj的右特征向量 vjv_jvj 正交。
证明如下:
Avj=λjvjAv_j = \lambda_j v_j Avj=λjvjuiTA=λiuiTu_i^T A = \lambda_i u_i^TuiTA=λiuiTuiTAvj=λiuiTvj=λjuiTvju_i^T A v_j = \lambda_i u_i^T v_j = \lambda_j u_i^T v_juiTAvj=λiuiTvj=λjuiTvj
推出:
(λi−λj)uiTvj=0(\lambda_i - \lambda_j)u_i^T v_j = 0(λi−λj)uiTvj=0
只能是
uiTvj=0u_i^T v_j = 0uiTvj=0
接下来看最终的证明:
A[v1⋯vn]=[v1⋯vn][λ1⋱λn] A\left[\begin{matrix}
v_1 & \cdots &v_n
\end{matrix} \right] =
\left[\begin{matrix}
v_1 & \cdots &v_n
\end{matrix} \right]
\left[\begin{matrix}
\lambda_1 & & \\
& \ddots& \\
& & \lambda_n
\end{matrix} \right]
A[v1⋯vn]=[v1⋯vn]⎣⎡λ1⋱λn⎦⎤
[u1T⋮unT]A=[λ1⋱λn][u1T⋮unT] \left[\begin{matrix}
u_1^T \\ \vdots \\u_n^T
\end{matrix} \right] A=
\left[\begin{matrix}
\lambda_1 & & \\
& \ddots& \\
& & \lambda_n
\end{matrix} \right] \left[\begin{matrix}
u_1^T \\ \vdots \\u_n^T
\end{matrix} \right]
⎣⎢⎡u1T⋮unT⎦⎥⎤A=⎣⎡λ1⋱λn⎦⎤⎣⎢⎡u1T⋮unT⎦⎥⎤
所以
[v1⋯vn][u1T⋮unT]A=A=[v1⋯vn][λ1⋱λn][u1T⋮unT]=∑i=1nλiviTui \left[\begin{matrix}
v_1 & \cdots &v_n
\end{matrix} \right]
\left[\begin{matrix}
u_1^T \\ \vdots \\u_n^T
\end{matrix} \right] A= A=
\left[\begin{matrix}
v_1 & \cdots &v_n
\end{matrix} \right]
\left[\begin{matrix}
\lambda_1 & & \\
& \ddots& \\
& & \lambda_n
\end{matrix} \right]
\left[\begin{matrix}
u_1^T \\ \vdots \\u_n^T
\end{matrix} \right] =
\sum_{i=1}^n \lambda_i v_i^Tu_i
[v1⋯vn]⎣⎢⎡u1T⋮unT⎦⎥⎤A=A=[v1⋯vn]⎣⎡λ1⋱λn⎦⎤⎣⎢⎡u1T⋮unT⎦⎥⎤=i=1∑nλiviTui
4252

被折叠的 条评论
为什么被折叠?



