AlexNet_原理详细

本文详细介绍了AlexNet的网络结构,包括卷积层、ReLU、LRN层和最大池化层的配置,并探讨了其在解决梯度消失、避免过拟合以及使用GPU加速训练等方面的优势。此外,还提到了数据增强在缓解过拟合中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题背景:本来想直接跳到R-CNN的,转念一想,基础没打牢还是不好,于是又回过头来学习学习AlexNet。
原文链接:https://blog.youkuaiyun.com/taoyanqi8932/article/details/71081390


一、原理部分

这里写图片描述
上图是来自paper的原汁原味AlexNet网络结构。可以看到:

整个网络从左往右,有一个输入,然后有8个需要训练的层,前5个为卷积层,最后3层为全连接层。分别说说这些层:

第一个层 conv_1:

  • 输入的图片大小为224*224*3
  • 有96个卷积核,尺寸为11*11,即11*11*96。步长(stride)为4.
  • 按照无padding的方式,输出的每个feature map尺寸应该为54*54

怎么计算出来?(224-11+1)/4,向上取整,或者 (224-11)/4+1,向下取整

但论文里面写输出的尺寸是55*55,关于这个,有2种解释:
1)这里用了padding=SAME的方式,可参考这个链接理解,有兴趣的去看API

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值