
pytorch
文章平均质量分 80
czhichao
这个作者很懒,什么都没留下…
展开
-
pytorch入门的入门
DATASETS & DATALOADERS两个有用的,torch.utils.data.DataLoader and torch.utils.data.Dataset,其中Dataset存储样本和标签(就是图片和真值),而DataLoader把它变成可迭代对象。加载数据集例子是加载 Fashion-MNIST数据集import torchfrom torch.utils.data import Datasetfrom torchvision import datasetsfrom t原创 2021-03-30 11:53:24 · 358 阅读 · 0 评论 -
训练一个分类器
训练一个分类器我们可以使用python包加载数据到一个numpy array中,然后转换为tensor。对于图片和视频,可以用Pillow和OpenCV包。pytorch也提供了torchvision包,它提供了对于常见数据集的加载器。用torchvision.datasets和torch.utils.data.DataLoader正好记录下读取图片格式的问题。用OpenCV的cv2.imread('a.jpg')读出来的图片格式为H,W,C,其中通道顺序为B,G,R,显示尺寸用imag.shape原创 2021-03-26 13:58:47 · 708 阅读 · 0 评论 -
神经网络
神经网络神经网络神经网络神经网络可以用torch.nn这个包来创建。nn依赖于autograd来定义模型和求导,原创 2021-03-03 11:28:41 · 185 阅读 · 0 评论 -
learning_rate,weight_decay,momentum
learning_rateloss函数设为L=f(x)-y,要求的就是L的最小值,用梯度下降法,x=x-adL/dx,x为单变量时就是导数,x为多变量时,dL/dx为loss函数的梯度,就是loss函数值增长最快的方向,于是x减去a梯度就向着极小值逼近了一点,每次逼近多少?就是a,也就是每次逼近极小值的步长,叫做learning_rate.weight_decay权重衰减。理解不深,只是直观上的感觉。c0是原来的那个损失函数,c是新的损失函数,加入了一项新的东西。其中λ就是权重衰减系数,n是w参数的原创 2021-03-02 13:03:33 · 211 阅读 · 0 评论 -
关于torch.autograd
关于torch.autograd本文来自于pytorch官网toturials。背景Neural networks (NNs) 神经网络是一系列网状的函数组成,这些函数由一些参数定义(这些参数包括weights和biases),而且这些参数在pytorch中以tensor的形式存储。训练一个神经网络分为两部:前向传播Forward Propagation:前向传播中,输入的数据经过网状的函数,得出一个guess的结果。后向传播Backward Propagation:后向传播中,神经网络根据原创 2021-03-02 11:32:32 · 383 阅读 · 0 评论 -
pytorch tutorials
pytorch tutorials-tensors本篇文章来自pytorch官网,自己翻译加理解。Tensors 是一种特殊的数据结构,和数组(array)和矩阵(matrices)类似,在pytorch中,使用tensors来组织输入和输出的数据以及模型的参数。它很像NumPy的ndarray,除了一点:tensors可以在GPU上并行计算。其他的和ndarray都很像。import torchimport numpy as npTensor Initialization-Tensor的初始化原创 2021-02-12 10:09:55 · 286 阅读 · 0 评论