Pytorch入门
smiling0927
Keep calm, stay hungry!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch入门(一)
PyTorch 和 TensorFlow、Caffe 等框架最大的区别就是他们拥有不同的计算图表现形式。 Pytorch中,每次都会重新构建一个新的计算图。Tensorflow计算采用静态图,先定义计算图,然后不断使用它。Pytorch在写法上和Python是语法一致,比tensorflow更加简单方便。Pytorch设计遵循tensor-->variable(autograd)--...原创 2019-04-15 20:20:02 · 208 阅读 · 0 评论 -
3.1常用的神经网络层(一)图像相关层
图像相关层主要包括卷积层(Conv)、池化层(Pool)等,这些层在实际使用中可分为一维(1D)、二维(2D)和三维(3D),池化方式又分为平均池化(AvgPool)、最大池化(MaxPool)、自适应池化(AdaptiveAvgPool)等。卷积层除了常用的前向卷积外,还有逆卷积(TransposeConv)。from PIL import Imagefrom torchvision.t...原创 2019-04-24 21:37:26 · 623 阅读 · 0 评论 -
2 神经网络工具箱nn
1.实际使用中,最常见的做法是继承nn.Module,撰写自己的网络层。下面将介绍如何使用nn.Module实现自己的全连接层。全连接层,又称仿射层,输入y和x满足y=Wx+b,W,b是可学习参数。import torch as timport torch.nn as nnimport torch.nn.functional as Ffrom torch.autograd impo...原创 2019-04-24 15:54:19 · 409 阅读 · 0 评论 -
IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim tensor to a Python
报错:running_loss += loss.data[0]Traceback (most recent call last): File "/B/Practice/csdncifar-10.py", line 98, in <module> running_loss += loss.data[0]IndexError: invalid index of a ...原创 2019-04-23 11:31:48 · 10549 阅读 · 0 评论 -
1.6 例子:CIFAR-10分类
CIFAR-10分类,步骤如下:1)使用torchvision加载并预处理CIFAR-10数据集2)定义网络3)定义损失函数和优化器4)训练网络并更新网络参数5)测试网络CIFAR-10数据加载及预处理CIFAR-10是一个常用的彩色图片数据集,它有10个类别airplane、automobile、bird、cat、deer、dog、frog、horse、ship和tr...原创 2019-04-23 11:28:39 · 4131 阅读 · 3 评论 -
1.4 nn.Module 神经网络(二)
损失函数:1.nn.MSELoss用来计算均方误差nn.CrossEntropyLoss用来计算交叉熵损失。eg:import torch.nn as nnimport torch.nn.functional as Ffrom torch.autograd import Variableimport torch as tclass Net(nn.Module): ...原创 2019-04-17 19:50:38 · 580 阅读 · 0 评论 -
1.3 nn.Module 神经网络(一)
torch.nn是专门为神经网络设计的模块化接口。nn构建于Autograd之上,用来定义和运行神经网络。nn.Module是nn中最重要的类,可以把它看作一个网络的封装,包含网络各层定义以及forward方法、调用forward(input)方法,可返回前向传播结果。下面以LeNet网络为例:...原创 2019-04-16 21:57:11 · 1250 阅读 · 0 评论 -
1.2 Autograd:自动微分
Pytorch的Autograd模块实现了深度学习算法本质上的反向传播求导数的功能。autograd.Variable是Autograd中的核心类,简单封装了Tensor,支持几乎所有的Tensor操作。Tensor在被封装为Variable之后,可以调用.backward实现反向传播,自动计算所有梯度。1. autograd.Variable主要包括三个属性:① data: 保存Va...原创 2019-04-16 11:10:51 · 288 阅读 · 0 评论 -
1.1 tensor
1.from __future__ import print_functionimport torch as tx=t.Tensor(5,3)#构建5*3矩阵,只是分配了空间,并未初始化print(x)2.from __future__ import print_functionimport torch as tx=t.randn(5,3)#使用[0,1]均匀分布随机初始...原创 2019-04-15 22:46:11 · 309 阅读 · 0 评论 -
3.2 模型保存、加载
Table of Contents模型保存常规模型加载 模型详细信息保存模型参数冻结模型保存# 保存整个网络torch.save(net, PATH)# 保存网络中的参数, 速度快,占空间少torch.save(net.state_dict(),PATH)常规模型加载 model_dict=torch.load(PATH)model_dict=m...原创 2019-06-05 10:46:44 · 303 阅读 · 0 评论
分享