
模型讲解
文章平均质量分 93
经典模型讲解
无码不欢的我
这个作者很懒,什么都没留下…
展开
-
SENet解析
1 前言在深度学习领域,CNN分类网络的发展对其它计算机视觉任务如目标检测和语义分割都起到至关重要的作用,因为检测和分割模型通常是构建在CNN分类网络(称为backbone)之上。提到CNN分类网络,我们所熟知的是VGG,ResNet,Inception,DenseNet等模型,它们的效果已经被充分验证,而且被广泛应用在各类计算机视觉任务上。这里我们介绍一篇CVPR2017的文章SENet,它赢得了最后一届ImageNet 2017竞赛分类任务的冠军。重要的一点是SENet思路很简单,很容易扩展在已有网络原创 2022-05-06 21:45:36 · 8823 阅读 · 1 评论 -
ResNeXt网络解析
ResNeXt是ResNet和Inception的结合体.ResNeXt借鉴Inception的“分割-变换-聚合”策略(即split-transform-merge),不同于Inception 的是,ResNext不需要人工设计复杂的Inception结构细节,而是每一个分支都采用相同的拓扑结构。ResNeXt的本质是分组卷积(Group Convolution),通过引入基数(Cardinality)来控制分组的数量1 split-transform-merge策略2 简化InceptionIn原创 2022-04-13 23:53:07 · 3253 阅读 · 0 评论 -
SSD算法解析
目标检测算法主要分为两类:Two-stage方法:如R-CNN系列算法,主要思路就是通过Selective Search或者CNN网络产生一系列的稀疏矩阵的候选区域,然后对这些候选区域进行分类和回归,two-stage的方法优势在于准确率度高;One-stage方法:如YOLO系列方法,主要思路就是均匀地在图片上不同位置进行密集采样,采样时使用不同尺度和长宽比box,然后利用CNN提取特征后直接进行分类和回归,整个过程只需要一步,所以优势在于速度快。我们接下来介绍的SSD方法也是单阶段的算法。SS原创 2022-04-15 12:33:43 · 17375 阅读 · 4 评论 -
ResNet网络解析及实战案例
网络越深,获取的信息就越多,特征也越丰富。但是在实践中,随着网络的加深,优化效果反而越差,测试数据和训练数据的准确率反而降低了。如下图所示,56层和20层的神经网络对训练误差和测试误差的对比针对这种深层网络退化的问题,何恺明等人提出了残差网络(ResNet)在2015年的ImageNet图像识别挑战赛夺魁,并深刻影响了后来的深度神经网络的设计。1 残差块假设 F(x) 代表某个只包含有两层的映射函数, x 是输入, F(x)是输出。假设他们具有相同的维度。在训练的过程中我们希望能够通过修改网络中的原创 2022-04-17 15:03:51 · 8517 阅读 · 10 评论 -
Unet网络解析
unet网络解析原创 2023-01-16 20:03:03 · 12076 阅读 · 3 评论 -
FCN网络解析
1 FCN网络介绍FCN(Fully Convolutional Networks,全卷积网络) 用于图像语义分割,它是首个端对端的针对像素级预测的全卷积网络,自从该网络提出后,就成为语义分割的基本框架,后续算法基本都是在该网络框架中改进而来。对于一般的分类CNN网络,如VGG和Resnet,都会在网络的最后加入一些全连接层,经过softmax后就可以获得类别概率信息。但是这个概率只能标识整个图片的类别,不能标识每个像素点的类别,所以这种全连接方法不适用于图像分割。FCN对图像进行像素级的分类,与原创 2022-04-12 00:12:16 · 28623 阅读 · 9 评论 -
DenseNet解析
1 前言在计算机视觉领域,卷积神经网络(CNN)已经成为最主流的方法,比如最近的GoogLenet,VGG-19,Incepetion等模型。CNN史上的一个里程碑事件是ResNet模型的出现,ResNet可以训练出更深的CNN模型,从而实现更高的准确度。ResNet模型的核心是通过建立前面层与后面层之间的“短路连接”(shortcuts,skip connection),这有助于训练过程中梯度的反向传播,从而能训练出更深的CNN网络。今天我们要介绍的是DenseNet模型,它的基本思路与ResNet一致原创 2022-04-27 11:52:41 · 4750 阅读 · 0 评论 -
Transformer架构解析
1.Transformer背景介绍1.1 Transformer的诞生2018年10月,Google发出一篇论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》, BERT模型横空出世, 并横扫NLP领域11项任务的最佳成绩!论文地址: https://arxiv.org/pdf/1810.04805.pdf而在BERT中发挥重要作用的结构就是Transformer, 之后又相原创 2021-06-21 16:51:55 · 2460 阅读 · 0 评论