0. 前言
线代是很早之前大一上的东西了,当时记得学的还可以,不过确实印象中里面各种零零散散的公式定理有一堆,感觉学的不怎么成体系,后来也一直没怎么真正用起来,等到现在也基本算是把学的全部还给老师了……
不过问题在于,虽然我现在已经不搞物理很多年了,但是架不住我转行做算法了啊,算法的核心不就是各种矩阵计算吗?虽然由于神经网络当中参数的复杂性,我自己也不是研究员,更多时候主要考察的还是数据特征以及对结果进行定性上的分析,而不会从模型结构中涉及的矩阵变换来对结果进行调优,但是线代终究感觉还是有必要去捞一下了……
所以,这里我打算还是掏出当年的教科书把线代给复习一下吧……
不过说到这里,我真的是想好好吐槽一下了,我掏出教科书之后才发现,当年上线代居然用的教材是线性代数与解析几何,然后教材前两章全都在讲解几,里面涉及到的线代相关的东西貌似也全部是服务于坐标系变换的,虽说我是物理系的吧,但是这是不是也太忽悠了啊,难怪当年印象中我好像特意去找了本数学系的线代教材自学来着……
简直了……
算了,先把这本书简单过一下吧,回头下次再找本数学系的教材好好补补吧……
1. 向量与复数
1. 向量
向量的含义顾名思义,就是即有大小又有方向的量,其满足如下性质:
- 交换律: a ⃗ + b ⃗ = b ⃗ + a ⃗ \vec{a} + \vec{b} = \vec{b} + \vec{a} a+b=b+a
- 结合律: ( a ⃗ + b ⃗ ) + c ⃗ = a ⃗ + ( b ⃗ + c ⃗ ) (\vec{a} + \vec{b}) + \vec{c} = \vec{a} + (\vec{b} + \vec{c}) (a+b)+c=a+(b+c)
- a ⃗ + 0 ⃗ = a ⃗ \vec{a} + \vec{0} = \vec{a} a+0=a
- a ⃗ + ( − a ⃗ ) = 0 ⃗ \vec{a} + (-\vec{a}) = \vec{0} a+(−a)=0
- 1 a ⃗ = a ⃗ 1 \vec{a} = \vec{a} 1a=a
- λ ( μ a ⃗ ) = ( λ μ ) a ⃗ \lambda (\mu \vec{a}) = (\lambda\mu)\vec{a} λ(μa)=(λμ)a
- ( λ + μ ) a ⃗ = λ a ⃗ + μ a ⃗ (\lambda + \mu)\vec{a} = \lambda\vec{a} + \mu\vec{a} (λ+μ)a=λa+μa
- λ ( a ⃗ + b ⃗ ) = λ a ⃗ + λ b ⃗ \lambda(\vec{a} + \vec{b}) = \lambda\vec{a} + \lambda\vec{b} λ(a+b)=λa+λb
关于向量还有一些比较简单的性质,比如说:
命题1.1.1
- 向量 a ⃗ , b ⃗ \vec{a}, \vec{b} a,b共线的充要条件是存在不全为零的实数 λ , μ \lambda, \mu λ,μ,使得 λ a ⃗ + μ b ⃗ = 0 \lambda \vec{a} + \mu \vec{b} = 0 λa+μb=0
命题1.1.2
- 向量 a ⃗ , b ⃗ , c ⃗ \vec{a}, \vec{b}, \vec{c} a,b,c共面的充要条件是存在不全为零的实数 λ , μ , ν \lambda, \mu, \nu λ,μ,ν,使得 λ a ⃗ + μ b ⃗ + ν c ⃗ = 0 \lambda \vec{a} + \mu \vec{b} + \nu \vec{c}= 0 λa+μb+νc=0
另外,我们可以基于此定义线性组合和线性相关:
定义1.1.1
- 设 a 1 ⃗ , a 2 ⃗ , . . . , a n ⃗ \vec{a_1}, \vec{a_2}, ..., \vec{a_n} a1,a2,...,an为一组向量, λ 1 , λ 2 , . . . , λ n \lambda_1, \lambda_2, ..., \lambda_n λ1,λ2

本文回顾了线性代数与解析几何的基础概念,包括向量运算、向量积、混合积等,并探讨了它们在空间解析几何中的应用,如直线和平面的表达、点到直线的距离计算等。
最低0.47元/天 解锁文章
798





