特征值与特征向量几何意义
特征值与特征向量几何意义
特征向量的几何意义:
特征向量确实有很明确的几何意义,矩阵(既然讨论特征向量的问题,当然是方阵,这里不讨论广义特征向量的概念,就是一般的特征向量)乘以一个向量的结果仍是同维数的一个向量,因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,那么变换的效果是什么呢?这当然与方阵的构造有密切关系,比如可以取适当的二维方阵,使得这个变换的效果就是将平面上的二维向量逆时针旋转30度,这时我们可以问一个问题,有没有向量在这个变换下不改变方向呢?可以想 一下,除了零向量,没有其他向量可以在平面上旋转30度而不改变方向的,所以这个变换对应的矩阵(或者说这个变换自身)没有特征向量(注意:特征向量不能是零向量),所以一个变换的特征向量是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已(再想想特征向量的原始定义Ax= cx,你就恍然大悟了,看到了吗?cx是方阵A对向量x进行变换后的结果,但显然cx和x的方向相同),而且x是特征向量的话,Ax也是特征向量(A是标量且不为零),所以所谓的特征向量不是一个向量而是一个向量族,另外,特征值只不过反映了特征向量在变换时的伸缩倍数而已,对一个变换而言,特征向量指明的方向才是很重要的,特征值不是那么重要,虽然我们求这两个量时先求出特征值,但特征向量才是更本质的东西!
比如平面上的一个变换,把一个向量关于横轴做镜像对称变换,即保持一个向量的横坐标不变,但纵坐标取相反数,把这个变换表示为矩阵就是[1 0;0 -1],其中分号表示换行,显然[1 0;0 -1]*[a b]‘=[a -b]’,其中上标’表示取转置,这正是我们想要的效果,那么现在可以猜一下了,这个矩
特征值与特征向量在几何变换中有深刻的含义:特征向量在矩阵变换下保持方向不变,仅长度伸缩,特征值表示伸缩比例。在机器学习中,它们用于PCA等算法,帮助找到数据的主要变化方向。特征向量是线性不变量,矩阵变换的线性子空间。特征值和特征向量提供了对线性变换速度和方向的抽象理解。
订阅专栏 解锁全文

3402

被折叠的 条评论
为什么被折叠?



