6、机器学习中的线性代数与Keras入门

线性代数与Keras入门指南

机器学习中的线性代数与Keras入门

一、线性代数基础操作

1.1 重塑与转置的区别

为了强化重塑(reshaping)和转置(transposing)是不同操作的概念,我们可以查看两个数组中哪些元素是匹配的。示例代码如下:

import numpy as np
np.reshape(mat1, [3,4]) == mat1.T

运行这段代码会得到一个布尔矩阵,从中我们可以看到只有第一个和最后一个元素是匹配的。

1.2 线性代数基本组件

线性代数的基本组件包括标量(scalars)、向量(vectors)、矩阵(matrices)和张量(tensors)。同时,我们还学习了这些组件的基本操作,如加法、转置和重塑。

1.3 矩阵乘法

矩阵乘法是神经网络操作的基础。与加法规则简单直观不同,矩阵和张量的乘法规则更为复杂。矩阵乘法并非简单的元素逐元素相乘,而是涉及一个矩阵的整行和另一个矩阵的整列的复杂运算。

对于两个矩阵 $A$ 和 $B$,它们的乘积 $C = AB$,其中每个元素 $c_{ij}$ 的定义为:
[c_{ij}=\sum_{k = 1}^{n}a_{ik}b_{kj}]
需要注意的是,结果矩阵的形状与矩阵乘积的外部维度相同,即第一个矩阵的行数和第二个矩阵的列数。为了使乘法能够进行,矩阵乘积的内部维度必须匹配,也就是第一个矩阵的列数和第二个矩阵的列数。

矩阵乘法不满足交换律,即 $AB$ 通常不等于 $BA$。例如,有两个矩

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值