神经网络的数学基础与入门
1. 线性代数基础
1.1 矩阵加法
矩阵加法是将两个或多个相同大小的矩阵对应元素相加,得到一个新的矩阵。例如:
[
A + B =
\begin{bmatrix}
a_{11} & a_{12} \
a_{21} & a_{22}
\end{bmatrix}
+
\begin{bmatrix}
b_{11} & b_{12} \
b_{21} & b_{22}
\end{bmatrix}
=
\begin{bmatrix}
a_{11} + b_{11} & a_{12} + b_{12} \
a_{21} + b_{21} & a_{22} + b_{22}
\end{bmatrix}
]
1.2 矩阵与向量乘法
矩阵与向量相乘时,矩阵的列数必须等于向量的维度。结果是一个新的向量,其维度等于矩阵的行数。例如:
[
Ax =
\begin{bmatrix}
a_{11} & a_{12} \
a_{21} & a_{22} \
a_{31} & a_{32}
\end{bmatrix}
\begin{bmatrix}
x_1 \
x_2
\end{bmatrix}
=
\begin{bmatrix}
a_{11}x_1 + a_{12}x_2 \ <
超级会员免费看
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



