Chapter8 矩阵特征值与特征向量的计算
7.1 前言
- 一般求法:
- 先由∣A−λE∣=0|A-\lambda E|=0∣A−λE∣=0求特征值λ\lambdaλ
- 再有(A−λE)x=0(A-\lambda E)x=0(A−λE)x=0求特征向量xxx
- 对阶数特别多的矩阵A难以求行列式,这个时候就需要数值解法来求矩阵的特征值
- 方法:
- 乘幂法:求主特征值
- 反幂法:求最小的特征值
7.2 乘幂法
7.2.1 特点
- 求主特征值和特征向量
- 假设,对实数矩阵A:
- 其有n个线性无关的特征向量x(i),i=1,2,⋯ ,nx^{(i)},i=1,2,\cdots,nx(i),i=1,2,⋯,n
- Ax(i)=λix(i)Ax^{(i)}=\lambda_{i}x^{(i)}Ax(i)=λix(i),其中λi\lambda_{i}λi是实特征值且满足∣λ1∣>∣λ2∣≥⋯≥∣λn∣>0|\lambda_{1}| > |\lambda_{2}| \geq \cdots \geq |\lambda_{n}| >0∣λ1∣>∣λ2∣≥⋯≥∣λn∣>0
- 优点:算法简单,易于实现,对于高阶稀疏矩阵较为合适
- 缺点:收敛速度依赖于∣λ2λ1∣k|\frac{\lambda_2}{\lambda_1}|^k∣λ1λ2∣k,越小越快
7.2.2 原始乘幂法
- 基本步骤:
- 任取非0列向量v(0)v^{(0)}v(0)
- v(1)=Av(0)→⋯→v(k+1)=Av(k)v^{(1)}=Av^{(0)} \rightarrow \cdots \rightarrow v^{(k+1)}=Av^{(k)}v(1)=Av(0)→⋯→v(k+1)=Av(k)
- v(k+1)=Av(k)≈λ1v(k)v^{(k+1)}=Av^{(k)}\approx\lambda_{1}v^{(k)}v(k+1)=Av(k)≈λ1v(k)
- λ1≈v(k+1)v(k)\lambda_{1}\approx\frac{v^{(k+1)}}{v^{(k)}}λ1≈v(k)v(k+1)
- 证明:由归纳法,提出最大特征值λ1\lambda_{1}λ1,其余项趋近于0
选定初始列向量v(0)v^{(0)}v(0),由于特征向量线性无关
v(0)=∑i=1nαix(i)=α1x(1)+α2x(2)+⋯+αnx(n) v^{(0)}= \sum_{i=1}^{n} \alpha_ix^{(i)}=\alpha_1x^{(1)}+\alpha_2x^{(2)}+\cdots+\alpha_nx^{(n)} v(0)=i=1∑nαix(i)=α1x(1)+α2x(2)+⋯+αnx(n)
通过迭代关系v(1)=Av(0)v^{(1)}=Av^{(0)}v(1)=Av(0)和特征向量定义式Ax(i)=λix(i)Ax^{(i)}=\lambda_{i}x^{(i)}Ax(i)=λix(i)
v(1)=Av(0)=∑i=1nαiAx(i)=∑i=1nαiλix(i)v^{(1)}=Av^{(0)}=\sum_{i=1}^{n}\alpha_iAx^{(i)}=\sum_{i=1}^{n}\alpha_i \lambda_{i}x^{(i)}v(1)=Av(0)=i=1∑nαiAx(i)=i=1∑nαiλix(i)
数值方法计算矩阵特征值:乘幂法与反幂法

文章介绍了计算矩阵特征值的数值方法,包括乘幂法和反幂法。乘幂法主要用于求主特征值,特点是简单易实现,但收敛速度取决于特征值的比值。改进乘幂法通过向量规范化解决了数值溢出问题。反幂法则适用于求最小特征值,通过矩阵平移找到最接近给定值的特征值。带原点平移的反幂法是求距离某个近似特征值最近的真实特征值的有效方法。
最低0.47元/天 解锁文章
3309

被折叠的 条评论
为什么被折叠?



