在深度学习中,前馈神经网络是一种最简单且非常有用的网络。在后台,前馈神经网络只是一个复合函数,它将一些矩阵和向量相乘。

并不是说向量和矩阵是执行这些操作的唯一方法,但如果你这样做,它们就会变得非常高效。深度学习背后的核心数据结构包括
• 标量
• 向量
• 矩阵和
• 张。
矩阵运算用于许多深度学习算法的描述。

因此,如果您真的想成为深度学习领域的专业人士,那么您就无法逃避掌握其中的一些概念。因此,在本文中,我们将讨论用于描述深度学习方法的重要线性代数矩阵运算。
目录
我们将在本文中讨论的主题如下:
• 什么是矩阵?
• 如何加减不同的矩阵?
• 如何找到给定矩阵的形状和大小?
• 如何将密集矩阵转换为稀疏矩阵?
• 如何找到矩阵的转置?
• 如何找到矩阵的均值、方差和标准差?
• 如何找到矩阵的轨迹?
• 如何从矩阵中提取最小和最大元素?
• 如何找到矩阵的行列式?
• 如何乘以给定的矩阵?
• 如何将特定操作应用于矩阵的每个元素?
• 如何找到矩阵的逆函数?
• 如何将矩阵重塑为不同的大小?
什么是矩阵?
矩阵是由数字组成的矩形数组,可以看作是 2个 nd 阶张量。如果 m 和 n 是正整数,即 m、n ∈ N,则 m×n 矩阵包含 m*n 个元素,其中 m 个行数和 n 个列数。
m×n 矩阵的图形表示如下所示:

有时,我们使用以下矩阵的缩写来代替完整的矩阵组件:

例如-
在这个例子中,在 numpy 库的帮助下,我们将创建一个矩阵。并检查形成的矩阵的维度。
import numpy as np
matrix = np.array([[45,34],[67,58]])
# Create a matrix
print("The original matrix is given by n", matrix)
# Check the dimension of the matrix
print("The dimension of the given matrix is", matrix.ndim)
矩阵加法和减法

在本节中,我们将使用 add 和 subtract 方法进行矩阵加法和减法。这些方法采用两个参数,并分别返回这些矩阵的和值和差值。如果矩阵的形状不同,则会引发一个错误,指出无法进行加法或减法。
matrix_1 = np.array([[45,34],[67,58]])
matrix_2 = np.array([[35,24],[57,48]])
# Add the two matrices
print("The result after adding matrix 1 and matrix 2 is given by n" , np.add(matrix_1, matrix_2))
# Subtract one matrix from the other matrices
print("The result after subtracting matrix 1 from matrix 2 is given by n" , np.subtract(matrix_1, matrix_2))
print("The result after subtracting matrix 2 from matrix 1 is given by n" , np.subtract(matrix_2, matrix_1))
输出:
The result after adding matrix 1 and matrix 2 is given by
[[ 80 58]
[124 106]]
The result after subtracting matrix 1 from matrix 2 is given by
[[10 10]
[10 10]]
The result after subtracting matrix 2 from matrix 1 is given by
[[-10 -10]
[-10 -10]]
矩阵的形状和大小
在本节中,我们将找到形状,即给定矩阵中的行数和列数,以及大小,即给定矩阵的矩阵中的元素数。

最低0.47元/天 解锁文章
37万+

被折叠的 条评论
为什么被折叠?



