深度学习中各种符号及术语的定义(一)

本文详细解释了神经网络中常用符号的定义与含义,包括神经元输出a、权重w、偏置b及激活函数等,并介绍了这些符号的上标与下标的特定含义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、符号定义

对于每个neuron输出定义为a,其中a有上标和下标,上标l表示是第l层的neuron的输出,i表示是第l层的第i个neuron输出。

2、对于权重w也有上标和下标,上标l表示是第l-1到第l层的权重,下标为ij,是从第l-1层的第j个neuron到第l层的第i个neuron,这个很重要,这是有具体意义的。对于一个权重矩阵,行表示是到第l行第一个neuron的权重,所以为下标为1j,第二行下标为2j。


3、bias-偏置值b也有上标和下标,上标l表示第l层的偏置值,i表示第l层第i个neuron的偏置值,每个neuron都有一个偏置值。所以如果第l层有Nl个神经元,则有Nl个偏置值。



4、每个neuron有一个activation function ,输入是z,输出是上面讲过的a,也有上标和下标,l表示第l层,i表示第i个neuron




### 深度学习中的常用数学符号术语深度学习领域,为了描述复杂的模型架构和算法过程,通常会使用系列标准化的数学符号术语。以下是常见的数学符号及其含义: #### 1. **输入、权重和偏置** - 输入向量通常被记作 \( \mathbf{x} \in \mathbb{R}^{d_x} \),其中 \( d_x \) 是输入维度[^3]。 - 权重矩阵般表示为 \( \mathbf{W} \in \mathbb{R}^{d_h \times d_x} \),用于连接输入层到隐藏层或其他层之间的映射关系。 - 偏置项是个列向量,记作 \( \mathbf{b} \in \mathbb{R}^{d_h} \)。 #### 2. **激活函数** - 隐藏层的输出经过某种非线性变换后传递给下层。常用的激活函数包括 Sigmoid 函数 \( \sigma(z) = \frac{1}{1 + e^{-z}} \) 和 ReLU (Rectified Linear Unit) 函数 \( f(x) = \max(0, x) \)。 #### 3. **损失函数** - 损失函数衡量预测值与真实值之间的差距。对于分类任务,交叉熵损失常被定义为: \[ L(y, \hat{y}) = -\sum_{i=1}^{C} y_i \log(\hat{y}_i), \] 其中 \( C \) 是类别总数,\( y \) 是真实的标签分布,而 \( \hat{y} \) 则是模型预测的概率分布[^2]。 #### 4. **梯度下降优化器** - 参数更新的核心公式如下: \[ \theta := \theta - \eta \cdot \nabla_\theta J, \] 这里 \( \eta \) 表示学习率,\( J \) 是目标函数(通常是平均损失),\( \nabla_\theta J \) 是关于参数 \( \theta \) 的梯度。 #### 5. **正则化技术** - 正则化的目的是防止过拟合。L2 正则化会在损失函数中加入项惩罚因子: \[ R(W) = \lambda \| W \|^2_F. \] --- ### 示例代码:简单的前馈神经网络 下面展示了个基本的两层全连接神经网络的实现方式: ```python import numpy as np def forward_pass(X, W1, b1, W2, b2): # 第层计算 Z1 = np.dot(X, W1.T) + b1 A1 = np.maximum(Z1, 0) # 使用ReLU作为激活函数 # 第二层计算 Z2 = np.dot(A1, W2.T) + b2 exp_scores = np.exp(Z2) probs = exp_scores / np.sum(exp_scores, axis=1, keepdims=True) return probs ``` --- ### 总结 上述内容涵盖了深度学习中最基础的些数学符号术语,这些工具帮助构建高效的神经网络模型,并解决实际应用中的各种问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值