
torch/tensorflow填坑
文章平均质量分 87
pytorch,tensorflow等框架使用笔记及填坑
DRACO于
这个作者很懒,什么都没留下…
展开
-
pytorch相关部分矩阵变换函数
1、tensor 维度顺序变换 BCHW顺序的调整tensor.permute(dims)将tensor的维度换位。参数是一系列的整数,代表原来张量的维度。比如三维就有0,1,2这些dimension。import torch a = torch.rand(8,256,256,3) #---> n,h,w,cprint(a.shape) b = a.permute(0,3,1,2) # ---> n,c,h,wprint(b.shape)#输出to...原创 2022-03-18 15:37:16 · 2202 阅读 · 0 评论 -
关于pytorch中的distributedsampler函数使用
1.如何使用这个分布式采样器在使用distributedsampler函数时,观察loss发现loss收敛有规律,发现是按顺序读取数据,未进行shuffle。问题的解决方式就是怀疑 seed 有问题,参考源码DistributedSampler,,发现 shuffle 的结果依赖 g.manual_seed(self.epoch) 中的 self.epoch。 def __iter__(self): # deterministically shuffle based o.原创 2021-03-26 14:30:54 · 34977 阅读 · 15 评论 -
归一化、标准化、正则化的区别
归一化归一化(Normalization)是为了消除不同数据之间的量纲,方便数据比较和共同处理,比如在神经网络中,归一化可以加快训练网络的收敛性;1. 把数据变为(0,1)之间的小数,主要是为了方便数据处理,因为将数据映射到0~1范围之内,可以使处理过程更加便捷、快速。例如 nn.normalize()进行归一化。2. 把有量纲表达式变换为无量纲表达式,成为纯量。经过归一化处理的数据,处于同一数量级,可以消除指标之间量纲和量纲单位的影响,提高不同数据指标之间的可比性。3. 主要算法:线性转.原创 2021-03-18 14:15:34 · 4163 阅读 · 0 评论 -
HydraPlus-Net: Attentive Deep Features for Pedestrian Analysis行人属性2017
HydraPlus-Net: Attentive Deep Features for Pedestrian Analysis,来自SenseTime的论文,提出了一个基于注意力机制的深度网络HydraPlus-Net,将多层注意力机制图多向映射到不同的特征层。由HP-Net得到的注意力深度特征具有几个优点:(1)模型能够从浅层到语义层捕获注意力;(2)挖掘多尺度的注意力特征,充实最终的行人特征表示。代码:https://github.com/xh-liu/HydraPlus-Net引言行人识别.原创 2020-11-25 14:48:38 · 339 阅读 · 0 评论 -
pytorch激活函数(ReLU) inplace测试
import torchimport torch.nn as nn#inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出m = nn.ReLU(inplace=True)input = torch.randn(7)print("输入处理前图片:")print(input)output = m(input)print("ReLU输出:")print(output)print("输出的尺度:")print(output.size())print(原创 2020-09-28 13:49:24 · 694 阅读 · 0 评论