- 博客(5)
- 资源 (4)
- 收藏
- 关注
原创 利用pytorch复现resnet对cifar-10进行分类
一、resnet创新点传统的卷积网络在网络很深的时候,会出现梯度消失或者梯度爆炸的现象而resnet就能很好的解决这个问题。resnet最为创新的一点是残差结构,它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思。示意图如下。它对每层的输入做一个reference(X), 学习形成残差函数, 而不是学习一些没有reference(X)的函数。这种残差函数更容易优化,能使网络层数大大加深。resnet还有一种结构,用在resn
2021-04-18 22:28:36
1036
原创 深谈VGG卷积神经网络
一、VGG的创新点(一)使用了更小的卷积核在vgg出现之前,大多数网络比如alexnet用的都是大卷积核提取特征,但是vgg采用堆叠小卷积核来达到大卷积核的方式,最显著的优点有两个:1、堆叠3*3卷积核在和7*7卷积核达到相同效果时,产生的参数更小,计算如下一个7*7卷积核的参数量:7*7*C*C=49*C*C三个3*3卷积核的参数量:3*3*3*C*C=27*C*C2、由于使用了小卷积核,可以在每一层后加上非线性激活函数,增强了模型的学习能力,增加特征抽象能力。(二)小池化核
2021-04-10 12:05:07
2409
原创 利用pytorch构建alexnet网络对cifar-10进行分类
文章目录(一)概述(二)数据预处理(三)构建网络(四)选择优化器(五)训练测试加保存模型正文(一)概述1、CIFAR-10数据集包含10个类别的60000个32x32彩色图像,每个类别有6000张图像。有50000张训练图像和10000张测试图像。2、数据集分为五个训练批次和一个测试批次,每个批次具有10000张图像。测试集包含从每个类别中1000张随机选择的图像。剩余的图像按照随机顺序构成5个批次的训练集,每个批次中各类图像的数量不相同,但总训练集中每一类都正好有5000
2021-04-05 14:13:48
1762
原创 关于利用pytorch复现alexnet网络并实现对MNIST数据及分类
一、alexnet网络结构(一)图解(二)网络各层参数1.AlexNet共8层,包括5个卷积层和3个全连接层 2.每一层都使用了Relu函数作为激活函数 3.AlexNet有一个特殊的计算层-LRN层,开辟性的使用了LRN(局部相应归一化层二、alexnet优点1.用ReLU得到非线性,用ReLU非线性函数作为激活函数2.使用dropout的trick在训练期间有选择性的忽略隐藏层神经元,来减缓学习模型的过拟合3.使用重叠最大池进行池化操作,避免平均池的平均效果4.使用G
2021-03-28 13:19:42
1048
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人