《ImageNet Classification with Deep Convolutional Neural Networks》ImageNet与深卷积神经网络分类

本文详细介绍了Hinton及其团队如何使用深度学习技术应用于ImageNet图像识别任务,并通过创新方法显著提升识别准确率。包括ReLU激活函数、GPU并行计算、局部归一化等技术优化,以及数据增强和dropout策略降低过拟合风险。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这篇发表于NIPS2012的文章,是Hinton与其学生为了回应别人对于deep learning的质疑而将deep learning用于ImageNet(图像识别目前最大的数据库)上,最终取得了非常惊人的结果,其结果相对原来的state of the art好了非常多(前5选错误率由25%降低为17%)。

ImageNet目前共包含大约22000类,15兆左右的标定图像。其中,目前最常用的LSVRC-2010 contest包含1000类,1.2兆图像。本文的结果在这个测试集上得到了前五选错误率17%的结果。


下图给出了整个deep net的结构:
ImageNet <wbr>Classification <wbr>with <wbr>Deep <wbr>Convolutional <wbr>Neural <wbr>Networks <wbr>阅读笔记

共包含8层,其中前5层是cnn,后面3层是全连接的网络,其中最后一层是softmax组成的输出决策层(输出节点数等于类别数目1000)。

具体的实现上,这篇文章在结构上面的一些改进在于:
1,采用ReLU来代替传统的tanh引入非线性,;
2,采用2块显卡来进行并行计算,减少了更多显卡需要host传递数据的时间消耗,在结构上,部分分布在不同显卡上面的前后层节点之间无连接,从而提高了训练速度;
3,同层相邻节点的响应进行局部归一化提高了识别率(top5错误率降低1.2%);
4,有交叠的pooling(top5错误率降低0.3%);

此外,为了降低over-fitting,文章采用了两种方式:
1,数据加强:
对训练数据进行左右对称以及平移变换,将训练数据增加为原来的2048倍;对像素进行PCA变换构造新样本(此机制使得top5错误率降低%1);
2,Dropout:

优化算法:
采用mini-batch SGD算法来优化,每个batch128个样本,momentum = 0.9, weight decay = 0.0005
ImageNet <wbr>Classification <wbr>with <wbr>Deep <wbr>Convolutional <wbr>Neural <wbr>Networks <wbr>阅读笔记

随机初始化权重和bias(具体随机参数请参见论文)

论文链接:

源码地址:
http://code.google.com/p/cuda-convnet/
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值