
卷积神经网络模型
文章平均质量分 66
1051450906
这个作者很懒,什么都没留下…
展开
-
ResNeXt网络结构
ResNeXt网络结构与ResNet网络结构相比来说主要更新了block块。ResNet网络:红框里的残差结构主要用于ResNet50/101/152ResNeXt网络:蓝框里的结构用来替代红框里的结构什么是分组卷积原创 2021-03-15 09:03:23 · 629 阅读 · 0 评论 -
MobileNet V1、V2、V3网络结构
传统卷积神经网络,内存需求大,计算量大,导致无法在移动设备以及嵌入式设备上运行。在准确率小幅降低的前提下大大减少模型参数和运算量(相比VGG16准确率降低0.9%,但是模型参数只有VGG的1/32)Mobilenet这篇论文是Google针对手机等嵌入式设备提出的一种轻量级的深层神经网络,取名为MobileNets。个人感觉论文所做工作偏向于模型压缩方面,核心思想就是卷积核的巧妙分解,可以有效减少网络参数。$$:卷积层中的卷积核个数...原创 2021-03-14 19:54:00 · 5817 阅读 · 1 评论 -
ResNet网络结构
ResNet网络为什么ResNet网络可以搭建超深的网络结构在ResNet网络提出之前,传统的卷积神经网络都是通过将一系列卷积层与池化层进行堆叠得到的,一般我们会觉得网络越深,特征信息越丰富,模型效果应该越好。但是实验证明,效果并不是如此。如下图所示,当网络堆叠到一定深度时,反而会出现深层网络比浅层网络效果差的情况。当网络堆叠到一定深度时,会出现两个问题:(1)梯度消失或梯度爆炸关于梯度消失和梯度爆炸,其实看名字理解最好:若每一层的误差梯度小于1,反向传播时,网络越深,梯度越趋近于0反转载 2021-03-05 09:12:40 · 924 阅读 · 1 评论 -
GoogLeNet网络结构
GoogLeNet网络Inception 结构1x1的卷积核如何起到降维的作用呢?辅助分类器AlexNet和VGG都只有一个输出层 ,而GoogLeNet有三个输出层(其中有两个辅助分类层,一个主分类器,两个辅助分类器的结构一样)(1)第一层是我们的平均下采样操作,池化核大小是5*5 ,步距是等于3(2)采用128个卷积核大小为1*1的卷积层进行卷积处理,目的是为了降低维度,并且使用的是ReLU激活函数(3)采用节点个数为1024的全连接层,同样使用ReLU激活函数(4)全连接层与全原创 2021-03-04 09:38:18 · 344 阅读 · 0 评论 -
VGG-16网络结构
在这里插入代码片模型import torch.nn as nnimport torchclass VGG(nn.Module):#继承自nn.Module的父类 def __init__(self, features, num_classes=1000, init_weights=False): #features--通过make_features()得到的提取特征网络结构,num_classes--想要得到的分类种类,init_weights--初始化权重原创 2021-03-03 11:06:17 · 1304 阅读 · 1 评论 -
AlexNet网络结构
构造模型import torch.nn as nnimport torchclass AlexNet(nn.Module):#定义AlexNet这个类,它继承自nn.Module这个父类 def __init__(self, num_classes=1000, init_weights=False): super(AlexNet, self).__init__() self.features = nn.Sequential( #使用nn.Se.原创 2021-03-01 15:10:35 · 543 阅读 · 5 评论 -
LeNet网络结构
模型代码import torch.nn as nnimport torch.nn.functional as F#pytorch tensor的通道排序[batch,channel,height,width]class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__()#继承父类的构造函数 self.conv1 = nn.Conv2d(3, 16, 5)#输入通道3,输出通.原创 2021-02-28 20:26:06 · 958 阅读 · 0 评论