
CNN基础
15195867336
这个作者很懒,什么都没留下…
展开
-
dropout层
做分类的时候,全连接层加dropout层,防止过拟合,提升模型泛化能力。卷积层由于卷积参数少,不易过拟合,不怎么后接Dropout 。CNN在最后的全连接层使用dropout,RNN一般在不同层循环结构体之间使用dropout, 而不在同一层的循环结构之间使用。dropout的直接作用是减少中间特征的数量,从而减少冗余,经过交叉验证,隐含节点dropout率等于0.5的时候效果最好, 训练时对于神经网络单元,按照一定的概率将其暂时从网络中丢弃(强迫一个神经单元,和随机挑选出来的其他神经单元共同工作,达到好的原创 2021-04-13 10:08:35 · 1472 阅读 · 1 评论 -
CNN中的一维卷积和二维卷积
一维卷积只在一个维度上进行卷积操作,而二维卷积会在二个维度上同时进行卷积操作。一维卷积常用于序列数据,如自然语言处理领域NLP;包含的参数有:tf.layers.conv1d()inputs:[batch, width, length] filters: 卷积核(滤波器)的个数 kernel_size:单个整数或元组/列表,指定1D(一维,一行或者一列)卷积窗口的长度。 strides:卷积的步长,默认为1 padding:"SAME" or "VALID"(不区分大小写)是否用0填充,.原创 2021-04-11 13:59:57 · 1554 阅读 · 0 评论