
pytorch
Shwan_Ma
模式识别小硕,向大牛看齐!
展开
-
【Pytorch】实现subpixle上采样及下采样
Pytorch 实现subpixle上采样及下采样, 类似与tensorflow的tf.depth_to_space , tf.space_to_depthdef shuffle_down(inputs, scale): N, C, iH, iW = inputs.size() oH = iH // scale oW = iW // scale output =...原创 2019-12-18 20:36:12 · 2711 阅读 · 1 评论 -
【pytorch】由dataloader引发的死锁
https://github.com/pytorch/pytorch/issues/1355原创 2019-12-10 14:14:53 · 4266 阅读 · 0 评论 -
【pytorch】给训练踩踩油门-- Pytorch 加速数据读取
本文转载于 https://zhuanlan.zhihu.com/p/80695364训练模型的时候有时候会发现显卡的占用一直跑不满,会很浪费,往往是因为IO瓶颈导致的训练速度降低。本文可以从以下几个方面进行对模型加速:一, prefetch_generator使用 prefetch_generator 库在后台加载下一 batch 的数据。安装:pip install prefet...转载 2019-12-01 00:21:41 · 4581 阅读 · 3 评论 -
【pytorch】冻结网络参数训练
假设我们想finetune一个网络,仅仅去训练conv8, prelu8, conv9,prelu9, conv10。在Pytorch中,一般是设置该variable的require_grad为False。1.设置变量的variable中requires_grad属性主要此处可以在定义网络的时候直接将requires_grad置于false。这里自行百度。在特殊场景可以用下面的方法:注意al...原创 2019-06-10 20:36:14 · 7027 阅读 · 0 评论 -
【pytorch】学会pytorch dataloader数据加载(一)
DataLoaderDataloader可以将自己的数据装换成Tensor,然后有效的迭代数据。可以很有效的简化数据的读取过程,方便炼丹。一、 首先介绍一个简单的例子:加载头文件:import torchimport torch.utils.data as Datatorch.manual_seed(1)生成torch数据x = torch.linspace(1, 10,...原创 2019-08-07 13:55:31 · 16156 阅读 · 1 评论 -
【pytorch】学会pytorch dataloader数据加载(二)---MINC实战
上一篇文章,我们用了莫凡大佬的pytorch dataloader的玩具例子,简单的讲解了一下pytorch的数据加载。总结来说,pytorch的数据加载主要就是涉及两方面,一个是构造Datas,一个是构造Dataloader。本文将根据MINC这个数据集进行实战。MINC项目主页: http://opensurfaces.cs.cornell.edu/publications/minc/。论...原创 2019-08-07 20:28:16 · 2014 阅读 · 2 评论 -
【pytorch】学会pytorch dataloader数据加载(三)---h5实战
import torch.utils.data as dataimport torchimport h5pyclass DatasetFromHdf5(data.Dataset):def init(self, file_path):super(DatasetFromHdf5, self).init()hf = h5py.File(file_path)self.data = hf.ge...原创 2019-08-26 20:25:35 · 4914 阅读 · 1 评论 -
【pytorch】学会pytorch dataloader数据加载(四)---直接读图
这篇就不再介绍dataloader的概念了, 直接放code了。import osimport cv2import randomimport numpy as npimport data.utils as utilsimport torchimport torch.utils.data as dataclass ImgsDataset(data.Dataset): '''...原创 2019-08-31 14:53:34 · 1201 阅读 · 0 评论