神经网络名词解释

batchsize:批量大小将决定我们一次训练的样本数目。
batch_size将影响到模型的优化程度和速度。
作用:
batchsize的正确选择是为了在内存效率和内存容量之间寻找最佳平衡。

Batch_Size的取值:
全批次
如果数据集比较小,我们就采用全数据集。全数据集确定的方向能够更好的代表样本总体,从而更准确的朝向极值所在的方向。
注:对于大的数据集,我们不能使用全批次,因为会得到更差的结果。

迷你批次
选择一个适中的Batch_Size值。就是说我们选定一个batch的大小后,将会以batch的大小将数据输入深度学习的网络中,然后计算这个batch的所有样本的平均损失,即代价函数是所有样本的平均。

随机(Batch_Size等于1的情况)
每次修正方向以各自样本的梯度方向修正,横冲直撞各自为政,难以达到收敛。

适当的增加Batch_Size的优点:
1.通过并行化提高内存利用率。
2.单次epoch的迭代次数减少,提高运行速度。(单次epoch=(全部训练样本/batchsize)/iteration=1)
3.适当的增加Batch_Size,梯度下降方向准确度增加,训练震动的幅度减小。
经验总结:
相对于正常数据集,如果Batch_Size过小,训练数据就会非常难收敛,从而导致underfittin

### 神经网络模型及其相关术语 #### 人工神经网络 (Artificial Neural Networks, ANNs) 人工神经网络是一种模仿生物神经系统结构和功能的计算框架,旨在模拟大脑处理信息的方式。这类模型由大量的简单单元——即所谓的“神经元”,通过加权连接组成层次化的架构[^1]。 #### 基础组件与机制 - **节点/神经元(Node/Neuron)**:构成网络的基本单位,在输入层接收外部信号,在隐藏层执行运算操作,并向输出层传递结果。 - **权重(Weight)**:表示两个相邻节点间关联强度的一个参数值;训练过程中不断优化以提高预测精度。 - **偏置(Bias)**:允许每个神经元独立于其它因素之外作出响应调整的一项附加项。 - **激活函数(Activation Function)**:用于引入非线性特性至模型之中,使得其能够拟合更复杂的映射关系。常见的有Sigmoid、ReLU等几种类型[^3]。 #### 子类别与发展延伸 随着研究深入和技术进步,基于传统的人工神经网络衍生出了多种变体: - **卷积神经网络(Convolutional Neural Network, CNN)**:特别适用于图像识别等领域,利用局部感受野以及共享权重的设计理念大幅减少了所需估计参数的数量。 - **循环神经网络(Recurrent Neural Network, RNN)**:擅长处理序列型数据的任务,如语音合成、时间序列分析等场合。相较于前馈式设计而言增加了反馈路径以便记忆先前时刻的状态信息。 #### 关联领域概述 值得注意的是,“机器学习”作为一门学科涵盖了众多分支方向,其中不仅包含了上述提到的各种类型的神经网络建模方法论,还包括但不限于支持向量机(SVM)、决策树(DT)等一系列经典算法体系。“深度学习”则是指那些层数较多(通常超过三层)且具备自动提取高层次抽象特征能力的一类特殊ML范式[^2]。 ```python import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense model = Sequential([ Dense(units=64, activation='relu', input_shape=(784,)), Dense(units=10, activation='softmax') ]) ``` 这段Python代码展示了如何构建一个简单的全连接前馈神经网络实例,采用Keras API封装下的TensorFlow库实现两层感知器分类器。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值