AI圣经《深度学习》读书笔记----第二章:线性代数

        线性代数是数学的一个分支,应用于科学和工程中。线性代数主要是面向连续数学,而非离散数学。掌握好线性代数对于学习机器学习算法是必要的,尤其是深度学习算法。因此,本章学习必要的线性代数知识。

知识点一:标量、向量、矩阵和张量

标量(scalar): 一个标量就是一个单独的数,不同于线性代数中研究的其他大部分对象。当介绍标量时,会明确标量的类型。
向量(vector): 一个向量是一列数。这些数是有序排列的,通过次序的索引,可以得到每个单独的数。表示为

x=(x1x2⋮xn) x = \begin{pmatrix} x_{1}\\ x_{2}\\ \vdots\\ x_{n}\\ \end{pmatrix} x=x1x2xn
矩阵(matrix): 矩阵是一个二维数组,其中的每一个元素由两个索引确定。一个2行2列的矩阵表示为
A=(A1,1A1,2A2,1A2,2) A = \begin{pmatrix} A_{1,1}&A_{1,2}\\ A_{2,1}&A_{2,2}\\ \end{pmatrix} A=(A1,1A2,1A1,2A2,2)
张量(tensor): 某些情况下,会讨论坐标超过两维的数组。一般地,一个数组中的元素分布在若干维坐标的规则网格中,我们称之为张量。
转置: 矩阵的转置是以对角线为轴的镜像。从左上角到右下角的对角线称为主对角线。表示为(AT)i,j=Aj,i(A^T)_{i,j}=A_{j,i}(AT)i,j=Aj,i。向量可看作是只有一列的矩阵,那么向量的转置就是只有一行的矩阵。标量的转置等于其本身。

知识点二:矩阵的运算

矩阵相加: 当矩阵形状相同时,矩阵对应位置的元素相加,表示为Ci,j=Ai,j+Bi,jC_{i,j}=A_{i,j}+B_{i,j}Ci,j=Ai,j+Bi,j
标量和矩阵相加或相乘: 只需将标量与矩阵的每个元素相乘或相加。表示为Di,j=a∗Bi,j+cD_{i,j}=a*B_{i,j}+cDi,j=aBi,j+c
矩阵和向量相加: 就是将向量和矩阵的每一行相加。表示为Ci,j=Ai,j+bjC_{i,j}=A_{i,j}+b_{j}Ci,j=Ai,j+bj。这种方法类似于将向量展开成一个与矩阵同维度的矩阵,然后在相加。这种方式称为广播。
矩阵相乘: 矩阵A和B相乘,矩阵A的列数必须和矩阵B的行数相等。表示为Ci,j=∑Ai,kBk,jC_{i,j}=\sum A_{i,k}B_{k,j}Ci,j=Ai,kBk,j。还有一种是矩阵元素对应乘积,也就是对应元素的乘积。

知识点三:单位矩阵、逆矩阵和特殊类型的矩阵与向量

单位矩阵: 对角线为1,其他位置为0的矩阵,单位矩阵与任何向量相乘,都不会改变。
A=(A1,1A1,2A2,1A2,2) A = \begin{pmatrix} A_{1,1}&A_{1,2}\\ A_{2,1}&A_{2,2}\\ \end{pmatrix} A=(A1,1A2,1A1,2A2,2)
逆矩阵: 矩阵A的逆矩阵记作A−1A^{-1}A1,满足A−1A=InA^{-1}A=I_{n}A1A=In
对角矩阵: 对角矩阵是在主对角线上含有非零元素,其他位置都为零。对角矩阵的逆矩阵就是将对角线元素取倒数。
对称矩阵: 矩阵是转置和自己相等的矩阵。即A=ATA=A^TA=AT
单位向量: 是具有单位范数的向量。即∣∣x∣∣2=1||x||_{2}=1x2=1
正交矩阵: 指行向量和列向量是分别标准正交的方阵。标准正交是矩阵中的行向量或者列向量两两相乘等于0,并且范数为1.正交矩阵满足:
ATA=AAT=I A^TA=AA^T=I ATA=AAT=I
A−1=AT A^{-1}=A^T A1=AT

知识点四:范数

        范数是用来衡量向量的大小,形式上,LpL^pLp范数可以定义为
∣∣x∣∣p=(∑i∣xi∣p)1p ||x||_{p}=(\sum_{i} |x_{i}|^p)^{\frac{1}{p}} xp=(ixip)p1
        其中,p≥1p\geq1p1。范数是将向量映射到非负值的函数。x的范数可以理解为衡量从原点到点x的距离。范数需要满足如下性质:

  • f(x)=0=>x=0f(x)=0=>x=0f(x)=0=>x=0
  • f(x+y)≤f(x)+f(y)f(x+y)\leq f(x)+f(y)f(x+y)f(x)+f(y)
  • ∀α∈Rf(αx)=∣α∣f(x)\forall \alpha \in \mathbb{R}f(\alpha x)=\left | \alpha \right |f(x)αRf(αx)=αf(x)
    L2L^2L2范数: 又叫欧几里得范数,表示从原点到向量x的欧几里得距离。常用来衡量向量的大小。计算公式为:
    ∥x∥2=∥x∥=∑ixi2 \left \| x \right \|_{2}=\left \| x \right \|=\sqrt{\sum_{i}x_{i}^{2}} x2=x=ixi2
    L1L^{1}L1范数: 当问题中,零和非零元素之间的差异非常重要时,使用L1L^1L1范数。表示为
    ∥x∥1=∑i∣xi∣ \left \| x \right \|_{1}=\sum_{i}\left | x_{i} \right | x1=ixi
    L0L^0L0范数: 统计向量中非零元素的个数来衡量向量的大小。但是非零元素的数目并不是范数,因为对向量进行缩放,非零元素的个数不变。因此,使用L1L^1L1范数替代。
    L∝L^{\propto }L范数: 也叫最大范数。表示向量中具有最大幅值的元素的绝对值。表示为
    ∥x∥∝=maxi∣x∣i \left \| x \right \|_{\propto }=\underset{i}{max}\left | x \right |_{i} x=imaxxi
    Frobenius范数: 用来衡量矩阵的大小。表示为
    ∥A∥F=∑i,jAi,j2 \left \| A \right \|_{F}=\sqrt{\sum_{i,j}A^{2}_{i,j} } AF=i,jAi,j2
知识点五:特征值分解与奇异值分解

特征分解: 是将矩阵分解为一组特征向量和特征值。
        方阵A的特征向量是指与A相乘后相当于对该向量进行缩放的非零向量。表示为
Av=λv Av=\lambda v Av=λv
        其中,λ\lambdaλ为特征值,v为特征向量。我们将特征向量连接成一个矩阵,使得每一列是一个特征向量:V={v(1),v(2),...,v(3)}V=\left \{ v^{(1)},v^{(2)},...,v^{(3)} \right \}V={v(1),v(2),...,v(3)}。同样,可以将一个特征值连接成一个向量λ=[λ1,...,λn]\lambda =\left [ \lambda _{1},...,\lambda _{n} \right ]λ=[λ1,...,λn]。因此,A的特征分解可以记作
A=Vdiag(λ)V−1A=Vdiag(\lambda )V^{-1}A=Vdiag(λ)V1
        并不是所有的矩阵都是可以特征分解的。所有特征值都是正数的矩阵称为正定。
奇异值分解(SVD): 将矩阵分解为奇异向量和奇异值。每个实数矩阵都有一个奇异值分解。但是不一定存在特征值分解。奇异值分解可将矩阵A分解为
A=UDVT A=UDV^{T} A=UDVT
        其中,A是一个m×nm\times nm×n的矩阵,U是一个m×mm\times mm×m的矩阵,D是一个m×nm\times nm×n的矩阵,V是一个n×nn\times nn×n的矩阵。矩阵U和V都是正交矩阵。D是对角矩阵。但不一定是方阵,D的对角线上的元素是矩阵A的奇异值。矩阵U的列向量是左奇异向量,矩阵V的列向量是右奇异向量。

知识点六:Moore-Penrose伪逆

        当矩阵是非方阵时,是没有逆矩阵的。当我们求解线性方程Ax=yAx=yAx=y时。使用A的逆矩阵A−1A^{-1}A1来求解。得到
x=A−1y x = A^{-1}y x=A1y
        但是,如果矩阵A的行数大于列数,那么上述方程没有解。如果矩阵A的行数小于列数,那么上述方程可能有多个解。因此,我们使用Moore-Penrose伪逆解决这个问题。矩阵A的伪逆定义为
A+=limα→0(ATA+αI)−1AT A^{+}=\underset{\alpha \rightarrow 0}{lim}(A^{T}A+\alpha I)^{-1}A^{T} A+=α0lim(ATA+αI)1AT
        但是,我们使用如下公式计算
A+=VD+UT A^{+}=VD^{+}U^{T} A+=VD+UT
        其中,U、D和V时矩阵A奇异值分解后得到的矩阵。对角矩阵D的伪逆D+D^+D+是其非零元素取倒数之后在转置得到的。使用伪逆求得的x使得Ax和y的欧几里得距离最小。

知识点七:迹运算和行列式

迹运算: 返回的是矩阵对角元素的和
Tr(A)=∑iAi,i Tr(A)=\sum_{i}A_{i,i} Tr(A)=iAi,i
        我们可以使用矩阵的迹运算,描述很多运算

  • Frobennins范数:∥A∥F=Tr(AAT)\left \| A \right \|_{F}=\sqrt{Tr(AA^{T})}AF=Tr(AAT)
  • 迹运算在转置运算下是不变的:Tr(A)=Tr(AT)Tr(A)=Tr(A^{T})Tr(A)=Tr(AT)
  • 多个矩阵相乘得到的方阵的迹。等于把矩阵中最后一个挪到最前面之后相乘的迹:Tr(ABC)=Tr(CAB)=Tr(BCA)Tr(ABC)=Tr(CAB)=Tr(BCA)Tr(ABC)=Tr(CAB)=Tr(BCA)
  • 循环置换后矩阵乘积得到的矩阵形状改变,但是迹运算的结果不变:Tr(AB)=Tr(BA)Tr(AB)=Tr(BA)Tr(AB)=Tr(BA)
  • 标量在迹运算后仍是自己:a=Tr(a)a=Tr(a)a=Tr(a)

行列式: 记作det(A)det(A)det(A),是一个将方阵A映射到实数的函数。行列式等于矩阵特征值的乘积。用来衡量矩阵参与矩阵乘法后空间扩大或者缩小了多少。如果为0,那么空间至少沿着某一维完全收缩。失去了所有的体积。如果行列式是1。则转换空间保持不变。

总结:

        线性代数在机器学习中扮演着重要的角色。因此,了解线性代数的知识是必要的。本章只是介绍了线性代数的一些基本知识。如果有精力,还需要仔细学习线性代数的知识。

友情链接:
github主页:https://github.com/guoyuantao
优快云博客:https://blog.youkuaiyun.com/gyt15663668337
个人博客主页:https://guoyuantao.github.io/
QQ讨论群:218803539

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值