自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 Pytorch怎么同时让两个dataloader打乱的顺序是相同

思路:将两个数据集按照对应顺序写成一个数据集,然后再用dataloader取出 代码: from torch.utils.data import Dataset from torch.utils.data import DataLoader `class MyDataset_v1(Dataset): def init(self): self.data = [1, 2, 3, 4] def __len__(self): return len(self.data) def __getitem__(se

2021-01-27 13:20:18 2452

原创 DeepLearning-深度学习中特征融合方式

这里写自定义目录标题 从多源信息融合谈起,其主要是数据层、特征层和决策层,数据层融合计算开销大,但是不损失信息,另外两类都是在数据分析之后,损失了部分信息,但是操作性较高。在深度学习任务中,海量的结构化数据使得从数据层融合比较困难,另外,很多网络的connection(ResNet, DenseNet, Transformer等)设计也融合了单源信息的多尺度特征。基于这两点,深度学习任务(CV,NLP为代表)主要在深度特征信息层进行融合。 主要分类: Point-wise addition / Eleme

2021-02-01 23:04:03 6329

原创 Pytorch-F函数(torch.nn.functional)和nn(torch.nn)的区别

torch.nn函数的实现去调用torch.nn.functional,实现方式是一致的。它们的区别是: nn函数可以写在深度学习模型的初始化中,F函数不可以,因为其需要输入实际的input 例如nn.ReLu和F.relu

2021-01-30 00:57:06 3839 1

原创 Pytorch-巧用nn.Sequential包装你的深度学习结构

思路:自定义简单的tensor,将设计的深度学习的层包装到nn.Sequential中 代码: import torch from torch import optim, nn import torch.nn.functional as F x = torch.Tensor([1, 2, 3, 4, 5]).reshape(1, 1, 5) padding_layer = torch.nn.ReflectionPad1d net1 = nn.Sequential( padding_layer((1

2021-01-29 15:27:45 426

原创 Python-map+lamda使你的效率翻倍

思路:map函数使一个或者多个序列经过lamda函数映射成新的序列 代码; y = list(map(lambda x: pow(x, 2), range(5))) print(y) 运行结果: [0, 1, 4, 9, 16]

2021-01-28 16:42:18 387

原创 Pytorch-怎么让两个dataloader打乱顺序相同,自定义一个sampler

思路:自定义一个sampler,将采样方式传进不同的dataloader,则取出的数据一致 代码: import torch from torch import nn from torch.utils.data import Dataset from torch.utils.data import DataLoader class MyDataset_v1(Dataset): def __init__(self): self.data = [1, 2, 3, 4] de

2021-01-27 14:43:45 1471 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除