
线性代数
嚯嚯火火火
这个作者很懒,什么都没留下…
展开
-
Moore-Penrose 广义逆/伪逆 (The Moore-Penrose Pseudoinverse)
矩阵求逆运算一般是对于方阵而言,矩阵求逆没有对非方阵定义。非方阵求逆会给我们带来很多便捷,假设我们得到矩阵A的左逆矩阵B,对于线性方程组Ax=y,我们可以这样求得:x=By;根据问题的结构,有可能无法设计一个从A到B的单一映射。 如果矩阵A更高(行数m大于列数n,即未知数的约束方程可能大于未知数的数目),那么这个方程就有可能没有解。如果矩阵A更宽(行数m小于列数n,即未知数的约束方程一定大于未知数的数目),那么就有多种解 。在这些情况下,Moore-Penrose伪逆允许我...原创 2021-10-25 11:15:01 · 2738 阅读 · 0 评论 -
奇异值分解(Singular Value Decomposition, SVD)
今天来汇总一下线性代数奇异值分解的知识。 与特征分解不同,奇异值分解(SVD)提供了将矩阵分解为奇异向量和奇异值的另一种方法并且应用更广泛。每个实矩阵都有一个奇异值分解,但特征值分解却不是这样。例如,如果一个矩阵不是方阵,特征分解就没有定义,我们必须使用奇异值分解来代替。 回想一下,特征分解涉及到分析一个矩阵A来找出一个特征向量组成的矩阵V和一个特征值λ组成的向量,这样我们可以重写A为: 奇异值分解是类似的,只是这次我们写A是三个矩阵的...原创 2021-10-17 14:56:26 · 307 阅读 · 0 评论 -
特征分解(Eigendecomposition)
身为一个刚进入研究生学习的学生,在此记录下我的学习过程,目前在整理机器学习所需要的线代知识,所记录的线代知识大部分为考研之外的知识点。 分解矩阵的方式可以向我们展示在矩阵的元素排列表示中不明显的那些信息。一种最广泛使用的矩阵分解称为特征分解,其中我们将一个矩阵分解成一组特征向量和特征值。方阵的特征向量是一个非零向量v,并且乘A只改变v的比例:Av = λv 其中标量λ是这个特征向量所对应的特征值。我们也可以找到一个左特征向量使A= λ ,但我们通常关心的是...原创 2021-10-17 13:41:54 · 4473 阅读 · 0 评论