矩阵微积分在很多领域都非常重要,比如机器学习、优化等。掌握它,你就能更好地理解和解决复杂问题。
1. 基础回顾:矩阵和向量
在深入矩阵微积分之前,我们得把矩阵和向量的基础知识再巩固一下。这些是后续学习的基石。
- 矩阵 (Matrix):
- 定义:由数字排列成的矩形阵列。
- 表示:通常用大写字母表示,如 A,XA, XA,X。
- 维度:m×nm \times nm×n 表示 mmm 行 nnn 列。
- 常见运算:
- 加减法:维度相同才能进行,对应位置元素相加减。
- 标量乘法:每个元素都乘以该标量。
- 矩阵乘法:Am×k×Bk×n=Cm×nA_{m \times k} \times B_{k \times n} = C_{m \times n}Am×k×Bk×n=Cm×n。记住“行乘列”法则:Cij=∑p=1kAipBpjC_{ij} = \sum_{p=1}^{k} A_{ip} B_{pj}Cij=∑p=1kAipBpj。这个很重要!
- 转置 (Transpose):ATA^TAT,行列互换。(AT)T=A(A^T)^T = A(AT)T=A, (AB)T=BTAT(AB)^T = B^T A^T(AB)T=BTAT。
- 逆 (Inverse):A−1A^{-1}A−1,如果 AA−1=A−1A=IAA^{-1} = A^{-1}A = IAA−1=A−1A=I (单位矩阵)。不是所有矩阵都有逆,只有方阵且行列式不为零才有。
- 行列式 (Determinant):det(A)\det(A)det(A) 或 ∣A∣|A|∣A∣,一个标量值。方阵才有行列式。
- 向量 (Vector):
- 定义:只有一列(列向量)或一行(行向量)的矩阵。
- 通常用小写字母表示,如 x,y\mathbf{x}, \mathbf{y}x,y。
- 点积 (Dot Product):xTy\mathbf{x}^T \mathbf{y}xTy 或 x⋅y\mathbf{x} \cdot \mathbf{y}x⋅y。结果是一个标量。
- 外积 (Outer Product):xyT\mathbf{x} \mathbf{y}^TxyT。结果是一个矩阵。
记忆技巧:多动手算!矩阵乘法尤其要多练习,把它刻在脑子里。
2. 导数基础:标量对向量/矩阵的导数
现在我们开始进入微积分部分。先从最简单的,标量函数对向量或矩阵的导数开始。
- 标量对向量的导数:
- 如果 f(x)f(\mathbf{x})f(x) 是一个标量函数,x=[x1,x2,…,xn]T\mathbf{x} = [x_1, x_2, \dots, x_n]^Tx=[x1,x2,…,xn]T 是一个列向量。
- f(x)f(\mathbf{x})f(x) 对 x\mathbf{x}x 的导数(梯度,Gradient)是一个列向量:
∂f∂x=[∂f∂x1∂f∂x2⋮∂f∂xn]\frac{\partial f}{\partial \mathbf{x}} = \begin{bmatrix} \frac{\partial f}{\partial x_1} \\ \frac{\partial f}{\partial x_2} \\ \vdots \\ \frac{\partial f}{\partial x_n} \end{bmatrix}∂x∂f=⎣⎢⎢⎢⎢⎡∂x1∂f∂x2∂f⋮∂xn∂f⎦⎥⎥⎥⎥⎤ - 例子:f(x)=aTx=a1x1+⋯+anxnf(\mathbf{x}) = \mathbf{a}^T \mathbf{x} = a_1 x_1 + \dots + a_n x_nf(x)=aTx=a1x1+⋯+anxn
∂(aTx)∂x=a\frac{\partial (\mathbf{a}^T \mathbf{x})}{\partial \mathbf{x}} = \mathbf{a}∂x∂(aTx)=a
这个非常常用!记住:

最低0.47元/天 解锁文章
1752

被折叠的 条评论
为什么被折叠?



