线性代数《Linear Algebra and Its Application》学习总结

本文提供了一篇数学概念的学习笔记,内容涵盖行消元、矩阵运算、线性方程组求解、矩阵变换、特征值与特征向量、内积、长度与正交性等核心概念。详细介绍了Echelon形式、Reduced Echelon形式、矩阵乘法、线性无关性、变换矩阵、线性方程组解法以及行列式的性质。同时,探讨了向量空间、内积空间、正交基、正交矩阵、SVD分解等高级主题,并展示了这些概念在计算机科学中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

此文仅为学习记录,内容会包括一些数学概念,定义,个人理解的摘要。希望能够分享一些学习内容。

第一节:Row Reduction and Echelon Forms

  1. Echelon form: 行消元后的矩阵
  2. Reduced echelon form: 行消元并且leading entry为1的矩阵。
  3. Echelon form and reduced echelon form are row equivalent to the original form.
  4. Span{v1, v2, v3,...... vp} is the collection of all vectors that can be written in the form c1*v1 + c2*v2 + ...... cp*vp with c1, .... cp scalars.
  5. Ax = 0 has a nontrival solution if and only if the equation has at least one free variable.(not full column rank)
  6. Ax = b 的解等于 Ax = 0 和 特解的和。
  7. 解线性方程组流程P54。
  8. 线性无关指任何向量不能组合成其中一个向量。
  9. Ax = b : ColA1 * x1 + ColA2 * x2 +.... ColAm * xm = b
  10. Matrix Transformations: T(x) = Ax is linear transformation.
  11. 转换矩阵是各维单位转换后的组合。A = [T(e1) T(e2) .. T(en)]
  12. A mapping T: R^n -> R^m is said to be onto R^m if each b in R^m is the image of at least one x in R^n. (Ax = b 有解)
  13. A mapping T: R^n -> R^m is said to be one-to-one R^m if each b in R^m is the image of at most one x in R^n.

第二节:Matrix Operation

  1. Each column of AB is a linear combination of the columns of A using weightings from the corresponding columns of B. AB = A[b1  b2 b3 b4 ,,, bp] = [Ab1 Ab2 ... Abp]
  2. Each row of AB is a linear combination of the columns of B using weightings from the corresponding rows of A.
  3. Warning: AB != BA. AB = AC !=> B = C. AB = 0 !=> A = 0 or B = 0
  4. 逆矩阵的定义:A-1*A = A*A-1 = E. 可以推导出A为方阵,详见Exercise 23-25 ,Section 2.1. A可逆的充要条件为A满秩(行列式不等于0)。
  5. 对[A I] 做行消元可以得到[I A-1]
  6. 矩阵满秩的所有等价定义:P129,P179.
  7. LU分解:A = LU,其中L为对角元素为1,的下半方阵,U为m*n的上半矩阵。L为变换矩阵的乘机的逆,U为A的Echelon form。计算L不需要计算各变换矩阵。详见P146。
  8. subspace, column space, null space的定义。
  9. A = m*n => rank(A) + rank(Nul(A)) = n.
  10. The dimension of a nonzero subspace H, denoted by dim H, is the numbers of vectors in any basis for H. The dimension of the zero subspace {0} us defined to be zero.

第三节:Introduction to Determinants

  1. determinant的定义和计算方式。
  2. 行消元不改变行列式值。交换行改变正负号。某一行乘以k,那么行列式乘以k。
  3. 三角矩阵的行列式为对角元素的乘积。
  4. det(AB) = det(A) * det(B)。
  5. Let A be an invertible n*n matrix. For any b in R^n, the unique solutionx of Ax = b has entries given by xi = det Ai(b)/det(A)。 Ai(b) 表示用b替换A的第i行。
  6. 由5可以推导出A^-1 = 1/det(A) * adj A. adj A = [(-1)^i+j* det(Aji)]
  7. 行列式与体积的关系:平行几何体的面积或者体积等于|det(A)|。而且 det(Ap) = det(A)*det(p)

第四节:Vector Spaces

  1. An indexed set {v1, v2, ... ... vp} of two or more vectors, with vi != 0, is linearly dependent, if and only if some vj (with j > 1) is a linear combination of the preceding vectors.
  2. Elementary row operation  on a matrix do not affect the linear dependence relations among the columns of the matrix.
  3. Row operations can change the column space of a matrix.
  4. x = Pb [x]b: we call Pb the change-of-coordinates matrix from B to the standard basis in R^n.
  5. Let B and C be bases of a vector space V. Then there is a unique n*n matrix P_C<-B such that [x]c = P_C<-B [x]b. The columns of P_C<-B are the C-coordinate vectors of the vectors in the basis B, that is P_C<-B = [[b1]c [b2]c ... [bn]c]. [ C B ] ~ [ I P_C<-B]

第五节:Eigenvectors and Eigenvalues

  1. \(Ax =\lambda * x\)
  2. 不同特征值对应的特征向量线性无关。
  3. det(A - λ *I) = 0. 因为(A - λ *I)有非零解。
  4. A is similar to B if there is an invertible matrix P such that P^-1AP = B. They have same eigenvalues.
  5. 矩阵能够对角化的条件是有n个线性无关的特征向量(特征向量有无穷多个,线性无关向量的数量最多为n)。
  6. 特征空间的维度小于等于特征根的幂。当特征空间的维度等于特征根的幂,矩阵能够对角化。
  7. 相同坐标变换矩阵在不同维度空间坐标系下的转换:P328。相同坐标变换矩阵在不同坐标系的转换:P329。其实都是一样的。
  8. Suppose A = PDP^-1, where D is a diagonal n*n matrix. If B is the basis for R^n formed from the columns of P, then D is the B-matrix for the transformation x ->Ax. 当坐标系转换为P时,转换矩阵对应变成对角矩阵。
  9. 复数系统。
  10. 迭代求特征值和特征向量。 先估计一个特近的特征值和一个向量\(x_0\)(其中的最大元素为1)。然后迭代,迭代流程详见P365。迭代可以得到最大特征值的原因如下:因为\((\lambda_1)^{-k}A^kx\rightarrow c_1v_1\),所以对于任意\(x\),当k趋近无穷的时候,\(A^kx\)会和特征向量同向。虽然\(\lambda\)和\(c_1v_1\)都未知,但是由于\(Ax_k\)会趋近\(\lambda*x_k\),我们只要令\(x_k\)的最大元素为1,就能得到\(\lambda\)。

 

第六节 :Inner Product, Length, and Orthogonality

  1. \((Row A)^{\bot} = Nul A\) and \((Col A)^{\bot} = Nul A^{\top}\). 这很显然,其中\(A^{\bot}\)表示与A空间垂直的空间。
  2. An orthogonal basis for a subspace W of \(R^n\) is a basis for W that is also an orthogonal set.
  3. 一个向量在某一维的投影:\(\hat{y} = proj_L y = \frac{y\cdot u}{u\cdot u}u\).
  4. An set is an orthonormal set if it is an orthogonal set of unit vectors.
  5. An m*n matrix U has orthonormal columns if and only if \(U^\top U = I\)
  6. 一个向量在某一空间的投影:\(\hat{y} = proj_w y = \frac{y\cdot u_1}{u_1\cdot u_1}u_1 + \frac{y\cdot u_2}{u_1\cdot u_2}u_2 + ... + \frac{y{\cdot}u_p}{u_p\cdot u_p}u_p.\)
  7. 如何将一堆向量弄成正交单位向量: repeat 3.
  8. QR分解:如果A有线性无关的列向量,那么可以分解成Q(正交向量)和R(上三角矩阵,就是原坐标在正交坐标系的系数)\(Q^{\top}A=Q^{\top}(QR) = IR = R\)
  9. 最小平方lse(机器学习基础:非贝叶斯条件下的线性拟合问题),由\(A^{\top}(b-A\hat{x})=0\)得到\(\hat{x}=(A^\top A)^{-1}A^{\top}b\)。如果A可逆,此式可以化简。如果可以做QR分解,那么\(\hat{x}=R^{-1}Q^{\top}b\).
  10. 函数内积的概念。

第七节:Diagonaliztion of Symmetric matrixs

  1. 如果一个矩阵是对称的,那么它的任何两个特征值所对应的特征空间是正交的。
  2. 矩阵可正交对角化等价于它是一个对称矩阵。
  3. \(A=PDP^{-1}\)可以得到PCA(机器学习算法主成分分析,对协方差矩阵(对称)做对角化)
  4. 将二次方程转化成没有叉乘项的形式。x=Py,  \(A = PDP^{-1}\).
  5. 对于二次函数\(x^{\top}Ax\),在|x| = 1的条件下,最大值为最大特征值,最小值为最小特征值。如果最大特征值(\(x^{\top}u_1\))不能选,则选择次之。
  6. 正交矩阵P大概意思就是在该坐标系下,函数比较对称,D为坐标轴的伸展比例。
  7. SVD分解(该书的最后一个内容,蕴含了很多上述的内容)是要将矩阵分解成类似PDP^-1的形式,但是不是任何矩阵都能表示成这种形式(有n个线性无关的特征向量,正交的话还要是对称矩阵)。其中\(A=U{\Sigma}V^{\top}\),\({\Sigma}\)是A的singular value(\(A^{\top}A\)的特征值的开方),V是\(A^{\top}A\)的对应特征向量,U是\(AV\)的归一化。AV内的向量是垂直的。\(U{\Sigma}\)是AV的另外一种表示。

转载于:https://www.cnblogs.com/wead-hsu/p/3712587.html

### 回答1: 《线性代数及其应用:MIT Gilbert》是一本介绍线性代数理论和其在实际应用中的使用的书籍,作者是MIT的Gilbert Strang教授。线性代数是数学中的一个基础学科,用于研究向量空间、线性映射和线性方程组等。而这本书主要聚焦于线性代数在实际领域中的应用。 书中首先介绍了向量和矩阵的基本概念和运算,包括线性组合、矩阵乘法和行列式等内容。然后详细探讨了线性方程组及其解的求解方法,并介绍了奇异值分解和特征值分解等相关的数值计算方法。这些理论部分给读者提供了深入学习线性代数的基础。 除了理论知识,书中还着重介绍了线性代数在不同领域中的应用。比如,在机器学习和数据科学中,线性代数常常用于处理高维数据的降维、矩阵分解和线性回归等问题。在图像处理和计算机图形学中,线性代数被广泛应用于图像变换、矩阵运算和图像压缩等方面。此外,线性代数在物理学、工程学和计算机科学等学科中也具有重要的应用价值。 总之,这本《线性代数及其应用:MIT Gilbert》以简明清晰的语言介绍了线性代数的基本概念和应用,适合那些对数学和实际应用感兴趣的读者。无论是学习线性代数的基础知识,还是探索线性代数在实际问题中的应用,这本书都是一本很好的指南。 ### 回答2: 线性代数及其应用是一门研究向量空间及其变换的数学学科。MIT Gilbert团队在优快云上提供了与线性代数及其应用相关的学习资源。 首先,线性代数是一门重要的数学学科,广泛应用于各个科学领域,包括计算机科学、物理学、工程学等。掌握线性代数的基本概念和方法对于理解和解决实际问题具有重要意义。 MIT Gilbert团队在优快云上提供了丰富的线性代数及其应用学习资源。这些资源包括教学视频、课件、习题等,覆盖了线性代数的各个方面,如矩阵运算、向量空间、线性变换等。这些学习资源旨在帮助学习者系统学习线性代数的基本理论和应用技巧,并通过实际例子和习题的解答来加深对概念和方法的理解。 通过学习线性代数及其应用,学习者可以了解和掌握线性方程组的求解方法、矩阵的运算规则、特征值和特征向量的计算等基本知识,从而应用到实际问题中。线性代数的应用广泛,例如在计算机图形学、机器学习、信号处理等领域,都需要运用线性代数的知识来解决问题。 综上所述,线性代数及其应用在科学研究和实际问题中都具有重要作用。MIT Gilbert团队在优快云上提供的学习资源可以帮助学习者系统学习线性代数的基本概念和应用技巧,提高问题解决能力和应用能力。 ### 回答3: 线性代数是数学的一个分支,研究向量空间和线性映射的性质与结构。它是现代数学中的一门重要课程,对于解决实际问题具有广泛的应用。 在MIT的课程中,Gilbert Strang教授的《线性代数及其应用》(Linear Algebra and its Applications)是一门十分知名的课程。在该课程中,Strang教授通过深入浅出的讲解,结合许多实际问题,帮助学生理解线性代数的概念和应用。 这门课程介绍了许多线性代数的基本概念,如向量、矩阵、线性变换和特征值等。同时,还探讨了线性代数在实际问题中的应用,比如图像处理、信号处理和机器学习等领域。 通过该课程,学生可以学习线性代数的基础知识,帮助他们在其他数学和科学领域中有更深入的理解和应用。此外,该课程还通过丰富的实例和练习,培养学生的问题解决能力和分析能力。 在优快云(中国软件开发者社区)上,有许多关于MIT课程的学习资料和笔记,其中包括《线性代数及其应用》这门课程。这些资料可以帮助对线性代数感兴趣的人更好地理解和学习相关内容。 总之,通过学习线性代数及其应用》,人们可以了解线性代数的基本概念和应用,并且通过实际问题的分析,培养自己的数学思维和解决问题的能力。在优快云上,学习者可以找到丰富的学习资源,有助于深入学习该课程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值