线性代数的本质(九)——特征向量与特征值

本文深入探讨了特征向量与特征值的概念,解释了它们如何在矩阵变换中保持不变,以及如何通过特征向量将矩阵转换为对角矩阵,从而简化复杂运算。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先让我们来考虑下面这个变换

在这里插入图片描述

我们关注这个变换对一个特定向量的作用

在这里插入图片描述

可以看出,这个变换使向量脱离了它本身张成的空间(一条直线),除了这个向量以外,这个二维向量空间中的绝大部分向量在变换后也会脱离它原来张成的空间。不过对于这个变换来说,仍然有一些特殊的向量会留在向量本身张成的空间中,这个变换只是对这些特殊的向量进行了缩放而已。

在这里插入图片描述

这个 [3102]\begin{bmatrix} 3 & 1 \\ 0 & 2 \end{bmatrix}[3012] 矩阵一共有两类能够保持在原来张成空间的向量。

在这里插入图片描述

看到这里,你们应该能猜到了,这些特殊的向量就是这个变换的特征向量,每一个特征向量都有一个被缩放的比例,就是特征值

在这里插入图片描述

再了解了上面的概念后,我们再来看看矩阵特征向量和特征值的公式,AAA 表示一个变换,λ\lambdaλ 表示一个系数

Av⃗=λv⃗A\vec{v} = \lambda \vec{v}Av=λv

这个公式说了左边矩阵向量乘积等于右边向量数乘,就是上面动画中表现出来的。我们来看看具体的计算过程

Av⃗=λv⃗A\vec{v} = \lambda \vec{v}Av=λv

把右边也换成矩阵向量乘法,在右边添加一个单位矩阵 III

Av⃗=λIv⃗Av⃗−λIv⃗=0(A−λI)v⃗=0A\vec{v} = \lambda I \vec{v} \\ A\vec{v} - \lambda I \vec{v} = 0 \\ (A - \lambda I) \vec{v} = 0Av=λIvAvλIv=0(AλI)v=0

最后我们可以得出,A−λIA - \lambda IAλI 代表的变换将空间压缩到了更小的维度,即 det⁡(A−λI)=0\det(A - \lambda I) = 0det(AλI)=0,因为只有在 A−λIA - \lambda IAλI 将空间压缩到更低维数的情况下,才会存在一个非零向量在变换后变成零向量。所以,现在我们只要能够求出满足 det⁡(A−λI)=0\det(A - \lambda I) = 0det(AλI)=0 的特征值 λ\lambdaλ ,然后根据 (A−λI)v⃗=0(A - \lambda I) \vec{v} = 0(AλI)v=0 算出具体的特征向量 v⃗\vec{v}v,以 A=[3102]A = \begin{bmatrix} 3 & 1 \\ 0 & 2 \end{bmatrix}A=[3012] 为例。

det⁡([3−λ102−λ])=0(3−λ)(2−λ)=0\det(\begin{bmatrix} 3 - \lambda & 1 \\ 0 & 2 - \lambda \end{bmatrix}) = 0 \\ (3 - \lambda)(2 - \lambda) = 0det([3λ012λ])=0(3λ)(2λ)=0

解得 λ1=2\lambda_1 = 2λ1=2 λ2=3\lambda_2 = 3λ2=3

接下来我们把求解出来的 λ1\lambda_1λ1λ2\lambda_2λ2 分别代入 (A−λI)v⃗=0(A - \lambda I) \vec{v} = 0(AλI)v=0 中,接下来我们可以根据零空间得出 v⃗\vec{v}v 的解了。

如果一个矩阵的特征向量就是基向量会是怎样的。满足这样的的矩阵只有对角矩阵,即矩阵除了对角元素以外其他元素都为0,[x000y000z]\begin{bmatrix} x & 0 & 0 \\ 0 & y & 0 \\ 0 & 0 & z \end{bmatrix}x000y000z,我们解读对角矩阵的方法可以是——每一个基向量都是特征向量,矩阵的对角元素是对应基向量的特征值。我们计算对角矩阵的乘积是非常好算的,[3002]100=[3100002100]\begin{bmatrix} 3 & 0 \\ 0 & 2 \end{bmatrix}^{100} = \begin{bmatrix} 3^{100} & 0 \\ 0 & 2^{100} \end{bmatrix}[3002]100=[3100002100],而计算 [3102]100\begin{bmatrix} 3 & 1 \\ 0 & 2 \end{bmatrix}^{100}[3012]100 却不是那么简单了。

像对角矩阵这种基向量就是矩阵特征向量的特殊矩阵并不多见,那我们如何计算那些基向量不全是特征向量的矩阵呢。我们知道线性无关的向量可以作为基向量,例如在二维空间中 [11]\begin{bmatrix} 1 \\ 1 \end{bmatrix}[11][1−1]\begin{bmatrix} 1 \\ -1 \end{bmatrix}[11] 这两个向量可以张成整个二维空间,现在回想一下上一节的基变换,如果一个矩阵的特征向量可以张成全空间,那我们可以使用基变换变换我们的坐标系使得这些特征向量就是基向量,这样就满足了基向量就是特征向量的条件。例如上面 [3102]\begin{bmatrix} 3 & 1 \\ 0 & 2 \end{bmatrix}[3012] 的特征向量 [10]\begin{bmatrix} 1 \\ 0 \end{bmatrix}[10][−11]\begin{bmatrix} -1 \\ 1 \end{bmatrix}[11] 可以张成全空间,所以新的坐标系为 [1−101]\begin{bmatrix} 1 & -1 \\ 0 & 1 \end{bmatrix}[1011],接下来我们用新坐标系来描述原始坐标系的矩阵 [3102]\begin{bmatrix} 3 & 1 \\ 0 & 2 \end{bmatrix}[3012],这里就要用到上一节讲到的相似矩阵了 [1−101]−1[3102][1−101]=[3002]\begin{bmatrix} 1 & -1 \\ 0 & 1 \end{bmatrix}^{-1} \begin{bmatrix} 3 & 1 \\ 0 & 2 \end{bmatrix} \begin{bmatrix} 1 & -1 \\ 0 & 1 \end{bmatrix} = \begin{bmatrix} 3 & 0 \\ 0 & 2 \end{bmatrix}[1011]1[3012][1011]=[3002]

在这里插入图片描述

然后我们在心坐标系中计算矩阵 [3002]100\begin{bmatrix} 3 & 0 \\ 0 & 2 \end{bmatrix}^{100}[3002]100 然后转换成原始坐标系,其结果等于直接在原始坐标系计算 [3102]100\begin{bmatrix} 3 & 1 \\ 0 & 2 \end{bmatrix}^{100}[3012]100[1−101][3002]100[1−101]−1=[3102]100\begin{bmatrix} 1 & -1 \\ 0 & 1 \end{bmatrix} \begin{bmatrix} 3 & 0 \\ 0 & 2 \end{bmatrix}^{100} \begin{bmatrix} 1 & -1 \\ 0 & 1 \end{bmatrix}^{-1} = \begin{bmatrix} 3 & 1 \\ 0 & 2 \end{bmatrix}^{100}[1011][3002]100[1011]1=[3012]100 最后就通过简单的方式完成了计算,当然这种方法只能用在矩阵的特征向量能够张成全空间这个大前提下。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值