线性代数
线性代数主要是面向连续数学。
标量:一个标量就是一个单独的数。
向量:一个向量就是一列数。我们可以把向量看成空间中的点,每个元素是不同坐标轴上的坐标。
矩阵:矩阵是一个二维数组,其中每个元素由两个索引所确定。
张量:一个数组中的元素分布在若干维坐标中的规则网络。
元素对应相乘:A⋅BA · BA⋅B
点积:C=ABC=ABC=AB,矩阵乘法
范数:衡量你一个向量的大小。范数是向量映射到非负值的函数。
范数满足一下几条性质:
① f(x)=0=>x=0f(x)=0 => x=0f(x)=0=>x=0;
② f(x+y)⩽f(x)+f(y)f(x+y)\leqslant f(x)+f(y)f(x+y)⩽f(x)+f(y)(三角不等式)
③ ∀α∈R,f(αx)=∣α∣f(x)\forall \alpha \in \mathbb{R},f(\alpha x)=|\alpha |f(x)∀α∈R,f(αx)=∣α∣f(x)
L2L^{2}L2范数称为欧几里得范数,在机器学习中出现的非常频繁。平方L2L^{2}L2范数经常用来衡量向量的大小,可以简单的通过点积xTxx^{T}xxTx计算。
平方L2L^{2}L2范数在数学上和计算上都比L2L^{2}L2范数本身更方便,但是平方L2L^{2}L2范数在原点附近增长的非常缓慢。
当机器学习中零和非零元素之间的差异非常重要时,通常会使用L1L^{1}L1范数。
有时候,我们会统计向量中非零元素的个数来衡量向量的大小。
FrobeniusFrobeniusFrobenius范数,简称FFF-范数,可以衡量矩阵的大小。在深度学习中,经常可以看到。其类似于向量的L2L^{2}L2范数。
∣∣A∣∣F=∑i,jAi,j2||A||_{F}=\sqrt{\sum_{i,j}A_{i,j}^{2}}∣∣A∣∣F=i,j∑Ai,j2