
卷积神经网络
文章平均质量分 78
拉普拉斯的小妖
这个作者很懒,什么都没留下…
展开
-
卷积神经网络--全连接层
CNN 入门讲解:什么是全连接层(Fully Connected Layer)?我们讲到激活函数(Activation Function),假设我们经过一个Relu之后的输出如下Relu:然后开始到达全连接层以上图为例,我们仔细看上图全连接层的结构,全连接层中的每一层是由许多神经元组成的(1x 4096)的平铺结构,上图不明显,我们看下图注:上图和我们要做的下面运算无联系并且不考虑激活函数和bias当我第一次看到这个全连接层,我的第一个问题是:它是怎么样把3x3x5的输出,转换成1x.转载 2020-10-10 20:41:34 · 12529 阅读 · 4 评论 -
卷积神经网络---池化层
在神经网络中,我们经常会看到池化层,常用的池化操作有四种:mean-pooling(平均池化),max-pooling(最大池化)、Stochastic-pooling(随机池化)和global average pooling(全局平均池化),池化层有一个很明显的作用:减少特征图大小,也就是可以减少计算量和所需显存。***mean-pooling(平均池化):***即对邻域内特征点只求平均优缺点:能很好的保留背景,但容易使得图片变模糊正向传播:邻域内取平均反向传播:特征值根据领域大小被平均,然后传转载 2020-10-10 16:54:45 · 4010 阅读 · 2 评论 -
卷积神经网络--卷积层
整个网络由输入层、卷积层、池化层、全连接层(softmax)1.输入层由多通道的特征图(输入特征面)组成。rgb为三通道,灰度图为单通道。2.卷积层由输出特征面组成,每个特征面有无数个神经元(像素点)组成。其中输出特征面的每个神经元是通过卷积核对输入特征面中的每个神经元进行卷积操作得到的。一个卷积核产生一张特征图,n个卷积核产生n个特征图。卷积核的设置规则如下:用二维来举例。输入一个1281283(长、宽、通道数)的图片则卷积核的大小可设为nn3,个数为m。卷积核的3对应的输入图片的通道数3。代表此卷积原创 2020-09-22 10:55:59 · 2059 阅读 · 0 评论 -
【深度学习】深入理解Batch Normalization批标准化
转自转载 2020-06-08 18:56:53 · 238 阅读 · 0 评论