深度学习训练的常用名词

     本文节选自CVer《深度学习速查词典》中的一部分内容,并补充一些常见名词。

 

      batch size

      一次前向或反向传播时样本的数目,该参数受限于内存的大小。

       iteration

      样本传播的次数,每次传播的样本数为batch大小,注:一次样本的传播包括前向和反向传播。

      epoch

      所有训练样本的传播次数。例如,有1000个样本,若batch size=500,则iteration=2时完成一次epoch。

      learning rate

      用于调节权重衰减的超参数,公式new_weight = existing_weight — learning_rate * gradient,即梯度下降法中使用的参数。

      梯度下降优化算法      

      1. momentum(动量)

      用于平滑随机梯度下降法的振荡。

 

 

SGD without momentumSGD with momentum

      2. Adam(Adaptive Moment Estimation)

      用于计算参数自适应学习率的方法,效果一般优于其他自适应学习算法。

      网络层参数

[convolutional]   #卷积层
batch_normalize=1 #批归一化参数  
filters=32        #卷积核的数量
size=3            #卷积核的大小
stride=1          #卷积步长
pad=1             #卷积时填充像素数
activation=leaky  #网络的激活函数(非线性的主要根源)

[maxpool]         #池化层:最大化池化
size=2            #池化核大小
stride=2          #池化步长

      Dropout

      是一种在深度神经网络中随机消除节点及其连接的正则化技术。它可以防止模型过拟合,同时加快深度神经网络的训练速度。

 

参考文献:

  1. https://mp.weixin.qq.com/s/0evrjcivb5ArZGLQ4tGrmg
  2. https://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D%E6%B3%95
  3. http://ruder.io/optimizing-gradient-descent/index.html#adam
### 高维特征向量相关的深度学习术语 在处理高维特征向量时,一些常见的深度学习专业术语包括: #### Embedding Layer 嵌入层用于将离散输入(如单词索引)转换为密集向量表示。这些向量通常具有较低维度,能够捕捉到数据中的语义关系。 ```python from tensorflow.keras.layers import Embedding embedding_layer = Embedding(input_dim=vocab_size, output_dim=embedding_dim) ``` 此操作有助于减少原始高维空间带来的计算复杂度并提高模型性能[^1]。 #### Dimensionality Reduction 降维技术旨在降低特征向量的空间维度,同时保留尽可能多的信息。常用方法有主成分分析(PCA),线性判别分析(LDA)以及t-SNE等算法。通过这种方式可以有效应对“维度灾难”,即随着特征数量增加而导致的数据稀疏性和过拟合风险。 #### Feature Map 特征映射是指卷积神经网络(CNNs)中由滤波器作用于输入图像或其他形式的数据产生的矩阵。对于高维特征向量而言,CNN可以通过多个层次提取不同抽象级别的局部模式,从而实现更有效的表征学习[^2]。 #### High-Dimensional Sparse Representation 高维稀疏表示指的是当大多数元素接近零时所形成的非常大的向量。这种类型的表示常见于自然语言处理领域内的词袋模型(BOW)或TF-IDF加权方案,在这类情况下只有少数位置上的数值显著不同于零值。 #### Autoencoder 自编码器是一种无监督学习框架下的神经网络结构,其目标是从给定输入重建该输入本身。训练过程中会强制中间隐藏层形成压缩版的原样本表达方式——这正好适用于解决因过多冗余信息而造成的过高维度问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值