imagenet classification with deep convolutional neural networks(alexnet)阅读总结

本文深入解析AlexNet模型,涵盖其在ImageNet数据集上的应用,包括ReLU非线性激活、多GPU训练策略、局部响应归一化、重叠池化等创新点,以及数据增强技术和DropOut方法。同时,文章详细介绍了AlexNet的网络结构和实验结果分析。

1.数据集

ImageNet:1500万张图片,2.2万类别
ILSVRC比赛数据集:ImageNet的一个子集,1000个类别,每个类别大概1000张图。120万张训练图片,5万张验证集图片,15万张测试集图片。

2.创新点

👉2.1 ReLU非线性

1.使网络训练更快
2.防止梯度消失
2.使网络具有稀疏性(负半轴都是0)

👉2.2 多GPU训练

用两个GPU进行训练,只在第三层和全连接层进行通信
解决了计算机资源问题,也是alexnet获得成功的关键点。

2.3 局部响应归一化

提升大型网络的泛化能力,现在已经不用了。

2.4重叠池化

防止过拟合提升指标

👉2.5 数据增强

1.产生新图
训练阶段:
①图片统一缩放至256×256
②随即裁剪出224×224区域
③随机进行水平翻转
32×32×2=2048
测试阶段:
①图片统一缩放至256×256
②随即裁剪出224×224区域
③全部进行水平翻转
网络抽取5个224×224区块:5×2=10
2. 针对颜色(RGB)频谱密度进行改变
PCA

👉2.6 DropOut

每个输入进来的时候,网络以50%的概率将每个隐藏层神经元置零
会使迭代次数增加

3 网络结构

在这里插入图片描述
五个卷积层,三个全连接层
MAX Pooling跟在1,2,5卷积层后面
LRN跟在1,2卷积层后面

4 结果分析

4.1 top-1和top-5错误

训练不同的网络进行评估略

4.2 定量分析

1.GPU1学到的使频率和方向,GPU2学到的是颜色。分析的第一层
2.最后一个4096层,两张相似图片的向量欧氏距离很小。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值