机器学习中的线性代数与Keras入门
一、线性代数基础操作
1.1 重塑与转置的区别
为了强化重塑(reshaping)和转置(transposing)是不同操作的概念,我们可以查看两个数组中哪些元素是匹配的。示例代码如下:
import numpy as np
np.reshape(mat1, [3,4]) == mat1.T
运行这段代码会得到一个布尔矩阵,从中我们可以看到只有第一个和最后一个元素是匹配的。
1.2 线性代数基本组件
线性代数的基本组件包括标量(scalars)、向量(vectors)、矩阵(matrices)和张量(tensors)。同时,我们还学习了这些组件的基本操作,如加法、转置和重塑。
1.3 矩阵乘法
矩阵乘法是神经网络操作的基础。与加法规则简单直观不同,矩阵和张量的乘法规则更为复杂。矩阵乘法并非简单的元素逐元素相乘,而是涉及一个矩阵的整行和另一个矩阵的整列的复杂运算。
对于两个矩阵 $A$ 和 $B$,它们的乘积 $C = AB$,其中每个元素 $c_{ij}$ 的定义为:
[c_{ij}=\sum_{k = 1}^{n}a_{ik}b_{kj}]
需要注意的是,结果矩阵的形状与矩阵乘积的外部维度相同,即第一个矩阵的行数和第二个矩阵的列数。为了使乘法能够进行,矩阵乘积的内部维度必须匹配,也就是第一个矩阵的列数和第二个矩阵的列数。
矩阵乘法不满足交换律,即 $AB$ 通常不等于 $BA$。例如,有两个矩
线性代数与Keras入门指南
超级会员免费看
订阅专栏 解锁全文
14

被折叠的 条评论
为什么被折叠?



