线性代数(3)名词概念梳理

本文深入浅出地讲解线性代数中的QR分解和奇异值分解(SVD)。从2×2矩阵的QR分解实例出发,解释QR分解的过程,并指出其在矩阵运算中的应用。同时,提到了SVD在机器学习等多个领域的广泛用途,为后续详细阐述奠定了基础。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性代数名词概念梳理

线性代数常常见的P矩阵(Permutation)(交换矩阵又叫做置换矩阵)。P矩阵是单位矩阵交换行所成,所以P的每列都是正交,所以它是正交矩阵,所以 P T = P − 1 P^T=P^{-1} PT=

### 常用线性代数名词与术语详解 线性代数是数学的一个分支,广泛应用于科学计算、工程、计算机科学以及数据科学等领域。以下是一些线性代数中常见的名词和术语,以及它们的定义和解释。 #### 1. 向量(Vector) 向量是具有大小和方向的量,通常表示为一组有序的数,这些数称为向量的分量。在数学中,向量可以看作是向量空间中的元素,通常用列向量或行向量的形式表示。 #### 2. 矩阵(Matrix) 矩阵是由数字组成的矩形阵列,通常用于表示线性变换或者方程组的系数。矩阵的大小由其行数和列数决定,记作 $ m \times n $,其中 $ m $ 表示行数,$ n $ 表示列数。 #### 3. 线性组合(Linear Combination) 给定一组向量 $ v_1, v_2, \dots, v_k $,它们的线性组合是指形如 $ a_1v_1 + a_2v_2 + \dots + a_kv_k $ 的表达式,其中 $ a_1, a_2, \dots, a_k $ 是标量。 #### 4. 线性无关(Linear Independence) 一组向量 $ v_1, v_2, \dots, v_k $ 如果满足 $ a_1v_1 + a_2v_2 + \dots + a_kv_k = 0 $ 只有在所有系数 $ a_1, a_2, \dots, a_k $ 都为零时才成立,则称这组向量是线性无关的。否则,称它们为线性相关。 #### 5. 基(Basis) 一个向量空间的基是一组线性无关的向量,并且这些向量可以生成整个向量空间。换句话说,基是向量空间的一个极大线性无关组。 #### 6. 维数(Dimension) 向量空间的维数是指其基中向量的数量。对于有限维向量空间来说,维数是一个有限的正整数。 #### 7. 范数(Norm) 范数是一个函数,用于度量向量或矩阵的大小或长度。常见的向量范数包括 $ L^1 $ 范数、$ L^2 $ 范数(欧几里得范数)和 $ L^\infty $ 范数。矩阵范数则用于度量矩阵的大小,常见的矩阵范数包括 Frobenius 范数和谱范数等。 #### 8. 特征值与特征向量(Eigenvalues and Eigenvectors) 对于一个方阵 $ A $,如果存在一个非零向量 $ x $ 和一个标量 $ \lambda $,使得 $ Ax = \lambda x $,则称 $ \lambda $ 是矩阵 $ A $ 的特征值,$ x $ 是对应的特征向量。特征值可以通过求解特征方程 $ \det(A - \lambda I) = 0 $ 来得到,其中 $ I $ 是单位矩阵。 #### 9. 特征空间(Eigenspace) 对于给定的特征值 $ \lambda $,所有满足 $ (A - \lambda I)x = 0 $ 的向量 $ x $ 构成的空间称为该特征值的特征空间。 #### 10. 秩(Rank) 矩阵的秩是指其列向量组(或行向量组)中线性无关向量的最大个数。矩阵的秩也可以通过将矩阵化为行阶梯形矩阵后非零行的数量来确定。 #### 11. 零空间(Null Space) 矩阵 $ A $ 的零空间是指所有满足 $ Ax = 0 $ 的向量 $ x $ 构成的空间。 #### 12. 正交(Orthogonality) 两个向量 $ u $ 和 $ v $ 如果它们的内积为零,即 $ u \cdot v = 0 $,则称这两个向量是正交的。正交性在许多应用中非常重要,尤其是在正交分解和最小二乘法中。 #### 13. 正交基(Orthogonal Basis) 一个基如果其中的向量两两之间都是正交的,则称该基为正交基。如果正交基中的每个向量都是单位向量,则称其为标准正交基。 #### 14. 正交矩阵(Orthogonal Matrix) 一个方阵 $ Q $ 如果满足 $ Q^TQ = QQ^T = I $,其中 $ Q^T $ 是 $ Q $ 的转置,$ I $ 是单位矩阵,则称 $ Q $ 为正交矩阵。正交矩阵的一个重要性质是它的列向量构成一组标准正交基。 #### 15. 对角化(Diagonalization) 如果一个方阵 $ A $ 可以表示为 $ A = PDP^{-1} $,其中 $ D $ 是对角矩阵,$ P $ 是可逆矩阵,则称 $ A $ 可以被对角化。对角化的过程通常涉及到特征值和特征向量的计算。 #### 16. 内积(Inner Product) 内积是两个向量之间的运算,结果是一个标量。最常用的内积是欧几里得内积,定义为 $ u \cdot v = u_1v_1 + u_2v_2 + \dots + u_nv_n $,其中 $ u_i $ 和 $ v_i $ 分别是向量 $ u $ 和 $ v $ 的第 $ i $ 个分量。 #### 17. 外积(Outer Product) 外积是两个向量之间的运算,结果是一个矩阵。对于两个向量 $ u $ 和 $ v $,它们的外积定义为 $ uv^T $,其中 $ v^T $ 是 $ v $ 的转置。 #### 18. 逆矩阵(Inverse Matrix) 对于一个方阵 $ A $,如果存在另一个方阵 $ B $,使得 $ AB = BA = I $,其中 $ I $ 是单位矩阵,则称 $ B $ 是 $ A $ 的逆矩阵,记作 $ A^{-1} $。 #### 19. 转置矩阵(Transpose Matrix) 矩阵 $ A $ 的转置矩阵记作 $ A^T $,是将 $ A $ 中的行和列互换得到的矩阵。即 $ (A^T)_{ij} = A_{ji} $。 #### 20. 行列式(Determinant) 行列式是一个与方阵相关的标量值,记作 $ \det(A) $ 或 $ |A| $。行列式可以用来判断矩阵是否可逆,也可以用于求解线性方程组的解。 ### 示例代码:计算矩阵的特征值和特征向量 ```python import numpy as np # 定义一个方阵 A = np.array([[4, 2], [1, 3]]) # 计算特征值和特征向量 eigenvalues, eigenvectors = np.linalg.eig(A) print("特征值:", eigenvalues) print("特征向量:\n", eigenvectors) ``` ### 示例解释 - `np.linalg.eig` 函数用于计算矩阵的特征值和特征向量。 - 特征值存储在 `eigenvalues` 中,特征向量存储在 `eigenvectors` 中。 - 输出结果中,特征值是数组形式,特征向量是以列向量的形式组成的矩阵。 ### 示例代码:计算矩阵的范数 ```python import numpy as np # 定义一个矩阵 A = np.array([[1, 2], [3, 4]]) # 计算矩阵的Frobenius范数 frobenius_norm = np.linalg.norm(A, 'fro') print("Frobenius范数:", frobenius_norm) # 计算矩阵的谱范数 spectral_norm = np.linalg.norm(A, 2) print("谱范数:", spectral_norm) ``` ### 示例解释 - `np.linalg.norm` 函数用于计算矩阵的范数。 - `'fro'` 参数表示计算 Frobenius 范数,`2` 参数表示计算谱范数。 - 输出结果中,Frobenius 范数和谱范数分别对应不同的矩阵范数。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值