经典论文研读:ImageNet Classification with Deep Convolutional Neural Networks

本文深入探讨AlexNet,一种开创性的深度卷积神经网络,详细介绍了其ReLU激活、局部响应归一化、重叠池化、数据增强及dropout等创新技术,展示了在ImageNet大赛中的卓越表现。

在这里插入图片描述

一、阅读笔记

Alex 的这篇经典论文提出了一下几点重要创新:

ReLU 激活函数

Relu可以加速训练过程,性能损失很小。深卷积神经网络与ReLUs训练的速度比与tanhtanhtanh单位相当的神经网络快几倍。所以,AlexNet中所有的层都采用ReLU作为激活函数。

局部响应归一化

每层的输出,做归一化处理。原文用下面的公式实现归一化:
在这里插入图片描述
这个有些不好理解,我举个简单例子,假设通道数N=10,n=3,k=0,α=1,β=0.5N=10,n=3,k=0,\alpha=1,\beta=0.5N=10n=3k=0α=1,β=0.5,则有,
bx,yi=ax,yi/(ax,yi−1)2+(ax,yi)2+(ax,yi+1)2 b_{x,y}^i=a_{x,y}^i/ \sqrt{(a_{x,y}^{i-1})^2+(a_{x,y}^i)^2+(a_{x,y}^{i+1})^2} bx,yi=ax,yi/(ax,yi1)2+(ax,yi

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

许野平

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值