卷积神经网络进阶学习(一)

本文介绍了AlexNet网络结构,包括输入图像规格、各层卷积核、池化层、全连接层等参数。还提及AlexNet首次使用Relu,采用2 - GPU并行结构,全连接层应用dropout防止过拟合,对图片进行随机采样实现数据增强,同时给出了dropout、Batch size等训练参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

AlexNet

网络结构
1.输入:224224,3通道的图像(rgb)
第一层卷积是:11
11的卷积核,96个,stride(步长)=4,而输出大小=(输入大小(224)-卷积核(11)+padding)/stride +1 = 55;参数数目 = 3111196
2.第二层卷积是:5
5的卷积核一共256个
3.第二层max_pooling:2*2
4.第一层的全连接和第二层都为:4096
softmax:1000为概率值
5.AlexNet是首次使用Relu的模型,速度比sigmod要快
6.2-GPU并行结构,部分卷积层后跟随max-pooling层
7.全连接层应用dropout(把一些神经元置零,且这一行为是随机的),为的就是防止过拟合(参数过多而样本过少)的问题,提高了模型的泛化能力。dropout解释:每次都相当于训练了一个子网络,最后结果就是相当于很多子网络组合。也消除了神经单元之间的依赖。
8.图片进行了随机采样(如[256,256]采样了[224,224]),即数据增强
9.dropout=0.5;Batch size = 128; SGD momentum=0.9;learning rate = 0.01,一定次数之后改为0.1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值