LeNet5网络较小,包含深度学习基本模块:卷积层,池化层,全连接层。

该网络共有7层,不包含输入,每层都包含可训练参数;每个层有多个Feature Map,每个FeatureMap
通过一种卷积滤波器提取输入的一种特征,然后每个FeatureMap有多个神经元。
各层参数详解:
1.input层
将输入图像的尺寸统一归一化为32*32。该网络一般用于mnist手写数据集,只有图片为单通道。
2.c1层-卷积层
输入图片:32*32
卷积核大小:5*5
步长:1
卷积核种类:6
输出featuremap大小:28*28,计算方法:(32-5+1)/1 = 28
(Input-kernel_size+1)/stride
神经元数量:28*25*6
可训练参数:(5*5+1)*6 (每个滤波器5*5=25个unit参数和一个bias参数,一共6个滤波器)
连接数:(5*5+1)*6*28*28 = 122304
详细说明:对输入图像进行第一次卷积运算(使用 6 个大小为 5*5 的卷积核),得到6个C1特征图(6个大小为28*28的 feature maps, 32-5+1=28)。参数量,卷积核的大小为5*5,总共就有6*(5*

本文深入解析LeNet5网络结构,包括卷积层、池化层、全连接层等核心模块,详细介绍各层参数配置与计算过程,为理解深度学习基础提供详实资料。
最低0.47元/天 解锁文章
685

被折叠的 条评论
为什么被折叠?



