
pytorch
沙雅云
这个作者很懒,什么都没留下…
展开
-
pytorch三层全连接层实现手写字母识别
先用最简单的三层全连接神经网络,然后添加激活层查看实验结果,最后加上批标准化验证是否有效首先根据已有的模板定义网络结构SimpleNet,命名为net.pyimport torchfrom torch.autograd import Variableimport numpy as npimport matplotlib.pyplot as pltfrom torch import ...原创 2019-05-03 14:33:56 · 8589 阅读 · 1 评论 -
使用resnet进行cifar的分类
图像着增强的方法主要有:Torchvision.transforms:1,scale:对图像的尺度进行缩小和放大2,centercrop:对图像的正中心给定大小的进行裁剪3,randomcrop:对图片进行给定大小的随机裁剪4,randomhorizaontaflip:对图片进行概率为0.5的随机水平翻转5,randomsizecrop:首先对图片进行随机水平的裁剪,然后对...原创 2019-05-19 12:48:46 · 1718 阅读 · 0 评论 -
pytorch手写字母用自己的网络进行训练对比lenet
导入必要的模块import torchfrom torch.autograd import Variableimport numpy as npimport matplotlib.pyplot as pltfrom torch import nn,optimfrom torch.utils.data import DataLoaderfrom torchvision import d...原创 2019-05-15 09:40:42 · 575 阅读 · 0 评论 -
pytorch使用Alexnet实现cifar10分类
介绍AlexnetAlexnet使用了一些技巧避免过拟合:数据增强,正则化,dropout,局部相应归一化LRN 使用了gpu加速 使用了ReLU非线性激活函数。速度快max(0,x)。 局部相应归一化LRN 对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。 网络模型如下所示: 全连接如下 ...原创 2019-05-16 08:39:42 · 9679 阅读 · 16 评论 -
使用VGG16来训练cifar数据集
VGG16的特点:VGGNet使用了更深的结构, AlexNet只有8 层网络,而VGGNet 有16 层,不在使用大的卷积核,只使用3*3卷积核和2*2的池化层之所以使用小的滤波器,是因为层叠很多小的滤波器的感受野和一个大的滤波器的感受野是相同的,还能减少参数,同时有更深的网络结构。其实他只是不断的对网络层进行叠加,并没有太多的创新,而增加深度确实可以一定程度改善模型的效果。代码如下...原创 2019-05-17 09:10:33 · 4559 阅读 · 5 评论 -
pytorch训练一个网络需要做的事情
steps1 使用 Torchvision加载和归一化cifar10训练集和测试集2 定义一个卷积网络3 定义损失函数4 在训练集上训练图片5 在测试集上测试图片transform = transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5,...原创 2019-09-01 16:58:23 · 241 阅读 · 0 评论