
Pytorch框架
BUPT-WT
不积硅步无以至千里,不积小流无以成江海
展开
-
数据预处理
1. torchvision.transforms: 常用的图像预处理方法 1.数据标准化 transforms.Normalisze(mean, std, inplace=False) 功能: 不同channel对图像进行标准化 mean: 通道的均值 std: 通道的标准差 inplace: 是否原地操作 2.裁剪 1. transforms.CenterCrop #.原创 2021-10-12 09:43:21 · 276 阅读 · 0 评论 -
DataLoader 与 Dataset
一、总体概览二、具体详解DataLoader源码class DataLoader(Generic[T_co]): r""" Data loader. Combines a dataset and a sampler, and provides an iterable over the given dataset. The :class:`~torch.utils.data.DataLoader` supports both map-style and.原创 2021-09-30 16:17:28 · 1955 阅读 · 0 评论 -
autograd
一、torch.autograd1、torch.autograd.backwardtorch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False)作用:自动求取梯度tensors: 用于求导的张量,如loss, torch.a.原创 2021-01-26 21:43:24 · 141 阅读 · 1 评论 -
计算图与动态图
一、计算图计算图主要是描述运算的有向无环图,计算图主要有两个部分:结点和边,节点可以表示数据,边表示数据的运算。叶子结点: 用户创建的结点称为叶子结点torch.Tensor: data、dtype、shape、device、requires_grad、grad、grad_fn、is_leafis_leaf: 指张量是否为叶子结点grad_fn: 用来记录创建张量时所用的方法二、动态图动态图: 运算和搭建同时进行,主要特点为 灵活、易调节静态图: 先搭建图...原创 2021-01-24 18:46:02 · 598 阅读 · 0 评论 -
张量操作
一、张量的操作: 拼接、切分、索引和变换一、张量的拼接与切分1、torch.cat()1、torch.cat()功能: 将张量按维度dim进行拼接torch.cat(tensors, dim=0, out=None)tensors: 张量数据dim: 需要拼接维度主要有两种拼接方式:按行拼接和按列拼接,也就是dim=0和dim=1e1 = torch.cat((A1,A2),0), 拼接完的结果是A1上,A2下,类似与python dataframe append功能原创 2021-01-22 10:18:14 · 512 阅读 · 0 评论 -
张量简介与创建
一、Tensor的概念 二、Tensor创建一:直接创建三、Tensor创建二: 依据数值创建四、Tensor创建三: 依据概率创建原创 2020-12-09 09:00:14 · 322 阅读 · 0 评论