
卷积神经网络CNN
史上最全的卷积神经网络,包含LeNet、AlexNet、VGG、GoogLeNet、ResNet、DenseNet、MobileNet,另外也介绍了Bilinear CNN、Inception、Xception、ShuffleNet,祝大家学的开心!
雷恩Layne
大家好,我是雷恩,雷恩的雷,雷恩的恩!
展开
-
卷积神经网络CNN与LeNet5详解(可训练参数量、计算量、连接数的计算+项目实战)
文章目录神经网络CNN卷积神经网络CNN的由来局部感受野共享权重池化CNN的结构光栅化LeNet5详解LeNet5-C1层LeNet5-S2层LeNet5-C3层LeNet5-S4层LeNet5-C5层LeNet5-F6层LeNet5-OUTPUT层计算公式LeNet5实战定义网络模型初始化模型参数训练测试准确率预测结果神经网络神经网络可以看成一个端到端的黑盒,中间是隐藏层(可以很深),两边是输入与输出层,完整的神经网络学习过程如下:定义网络结构(指定输入层、隐藏层、输出层的大小)初始化模型参数原创 2020-07-28 18:36:17 · 13925 阅读 · 6 评论 -
神经网络之多维卷积的那些事(一维、二维、三维)
文章目录前言一维卷积Conv1d二维卷积Conv2d三维卷积Conv3d卷积中的特征图大小计算方式总结前言一般来说,一维卷积用于文本数据,二维卷积用于图像数据,对宽度和高度都进行卷积,三维卷积用于视频及3D图像处理领域(检测动作及人物行为),对立方体的三个面进行卷积 。二维卷积的用处范围最广,在计算机视觉中广泛应用。一维卷积Conv1d一维卷积最简单,实质是对一个词向量做卷积,如下所示:图中的输入的数据维度为8,过滤器的维度为5。卷积后输出的数据维度为8−5+1=4如果过滤器数量仍为1,输入原创 2020-07-23 18:26:12 · 24021 阅读 · 3 评论 -
为什么MobileNet及其变体(如ShuffleNet)会变快?
本文是转载文章,转载自深入剖析:为什么MobileNet及其变体(如ShuffleNet)会变快?,删除了文中冗余的部分,并加入许多自己的理解,通过引入具体的计算更清晰的反映出轻量级神经网络的本质。文章目录前言高效CNN使用的组成部分卷积分组卷积(Grouped Convolution)深度卷积(Depthwise Convolution)Channel Shuffle高效的CNN模型ResNet (Bottleneck Version)ResNeXtMobileNet (Depthwise Sepa.转载 2020-09-05 11:44:11 · 1372 阅读 · 1 评论 -
轻量级神经网络MobileNet全家桶详解
本文是转载文章,转载自从MobileNet看轻量级神经网络的发展,删除了文中冗余的部分,并加入许多自己的理解,通过引入具体的计算更清晰的反映出轻量级神经网络MobileNet的本质。文章目录前言MobileNet的优势MobileNet各版本介绍MobileNetV1网络结构MobileNetV2网络结构MobileNetV3网络结构MobileNet各版本特性深度卷积(Depthwise convolution)逐点卷积(Pointwise Convolution)深度可分离卷积(Depthwise.转载 2020-09-05 15:54:53 · 73319 阅读 · 20 评论 -
DenseNet密集卷积网络详解(附代码实现)
文章目录前言Dense BlockGrowth rateBottleneckTransition layer压缩因子DenseNet网络结构DenseNet优缺点Pytorch实现DenseNet前言DenseNet是CVPR2017的最佳论文,由康奈尔大学黄高博士(Gao Huang)、清华大学本科生刘壮(Zhuang Liu)、Facebook 人工智能研究院研究科学家 Laurens van der Maaten 及康奈尔大学计算机系教授 Kilian Q. Weinberger 所作,有兴趣的同原创 2020-09-03 17:20:30 · 25811 阅读 · 4 评论 -
细粒度分析与Bilinear CNN model(附代码实现)
前言有时,我们逛街时看到不同的狗,却不知道其具体品种,看到路边开满鲜花,却傻傻分不清具体是什么花。实际上,类似的问题在实际生活中屡见不鲜,人类尚且如此,更别说人工智能了。为了解决这一问题,研究者们提出了细粒度分析(fine-grained image analysis)这一专门研究物体精细差别的方向。细粒度分析细粒度分析任务相较于通用图像(general/generic images)任务的区别和难点在于其图像所属类别的粒度更为精细。下图为例,通用图像分类其任务诉求是将“袋鼠”和“狗”这两个物体大类(原创 2020-09-02 19:43:49 · 10463 阅读 · 16 评论 -
ResNet残差网络及变体详解(符代码实现)
前言ResNet(Residual Network, ResNet)是微软团队开发的网络,它的特征在于具有比以前的网络更深的结构,在2015年的ILSVRC大赛中获得分类任务的第1名。网络的深度对于学习表达能力更强的特征至关重要的。CNN能够提取low/mid/high-level的特征,网络的层数越多,意味着能够提取到不同level的特征越丰富。并且,越深的网络提取的特征越抽象,越具有语义信息,特征的表示能力就越强。但是,随着网络深度的增加,所带来的的问题也是显而易见的,主要有以下几个方面:增加原创 2020-08-28 22:14:30 · 9941 阅读 · 1 评论 -
深入解读GoogLeNet网络结构(附代码实现)
前言七夕了,看着你们秀恩爱,单身狗的我还是做俺该做的事吧!在上一篇文章中介绍了VGG网络结构,VGG在2014年ImageNet 中获得了定位任务第1名和分类任务第2名的好成绩,而同年分类任务的第一名则是GoogleNet 。GoogleNet是Google研发的深度网络结构,之所以叫“GoogLeNet”,是为了向“LeNet”致敬,有兴趣的同学可以看下原文Going Deeper with Convolutions。与VGGNet模型相比较,GoogleNet模型的网络深度已经达到了22层(原创 2020-08-25 22:04:25 · 35321 阅读 · 22 评论 -
深入解读VGG网络结构(附代码实现)
VGGNet由牛津大学的视觉几何组(Visual Geometry Group)提出,并在2014年举办的ILSVRC(ImageNet 2014比赛)中获得了定位任务第1名和分类任务第2名的好成绩,(GoogleNet 是2014 年的分类任务第1 名)。虽然VGGNet在性能上不及GoogleNet,但因为VGG结构简单,应用性强,所以很多技术人员都喜欢使用基于VGG 的网络。VGG论文Very deep convolutional networks for large-scale image re原创 2020-08-24 23:13:00 · 6449 阅读 · 1 评论 -
从Inception到Xception,卷积方式的成长之路!
2014年Google提出了多尺度、更宽的Inception网络结构,不仅比同期的VGG更新小,而且速度更快。Xception则将Inception的思想发挥到了极致,解开了分组卷积和大规模应用的序幕。本文将详细讲述Inception v1的多尺度卷积和Pointwise ConvInception v2的小卷积核替代大卷积核方法Inception v3的卷积核非对称拆分Bottleneck卷积结构Depthwise Separable Conv深度可分离卷积多尺度卷积Inception原创 2020-08-06 15:30:41 · 3950 阅读 · 3 评论 -
Alexnet网络结构逐层详细分析+代码实现
在2012年Imagenet比赛冠军—Alexnet (以第一作者Alex命名)直接刷新了ImageNet的识别率,奠定了深度学习在图像识别领域的优势地位。网络结构如下图:下面分别对每层进行介绍:(1)Input 层:为输入层,AlexNet卷积神经网络默认的输入数据必须是维度为224×224×3的图像,即输入图像的高度和宽度均为224,色彩通道是R、G、B三个。(2)Conv1 层:为AlexNet的第1个卷积层,使用的卷积核为(11*11*3)*96(卷积核大小为11*11,输入通道为3,输出原创 2020-08-06 11:04:26 · 5535 阅读 · 0 评论