人工智能之数学基础:幂法和反幂法求特征值和特征向量

本文重点

特征值和特征向量是矩阵的重要性质,我们前面学习了矩阵的正交分解,要想完成正交分解需要求出一个矩阵的特征值和特征向量。有的时候,我们只需要求出一个矩阵的最大的特征值以及矩阵的最小特征值,它们以及它们对应的特征向量具有特殊的含义,下面我们介绍两种方法,这两种方法可以帮助我们快速求出一个矩阵的最大特征值和最小特征值。

什么是最大特征值和最小特征值?

按模最小的特征值就是最小特征值,按模最大的特征值就是最大特征值

幂法和反幂法的介绍

幂法和反幂法其实是一样的,反幂法要求矩阵是可逆的。幂法是计算最大特征值,而反幂法是计算最小特征值,幂法和反幂法都应用了迭代的思想。

幂法定理

我们可以通过定理可以获取到当一个矩阵具有n个线性无关的特征向量的时候,那么我们的最大的λ1可以通过(8.3)的方式求解出来,我们可以对其进行推导

幂法

幂法的思想是初始化一个非零向量V0,然后通过矩阵A构造一向量序列{Vk}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

每天五分钟玩转人工智能

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值