
pytorch
IT_BOY__
这个作者很懒,什么都没留下…
展开
-
对BatchNorm2d的理解
简介网上关于BN处理的说明有很多,它的前身就是白化处理,但是白化处理需要消除特征之间的相关性(使用PCA降维,矩阵分解等),这样比较消耗时间,然后对每一维特征的样本进行归一化,就是将其映射到均值为0,标准差为1的空间上。 BN汲取了白化处理的思想,但是BN的特点是进行批量归一化,比如一个形状为[N,C,H,W]的输入数据,它针对每一维特征进行样本大小为NxHxW的归一化操作,将该维特征的样本空间进行一个标准映射。为了验证我的理解,我做了实验一下实验。准备数据input1: 一维特征,batch=2的t原创 2021-07-14 21:30:04 · 784 阅读 · 1 评论 -
Pytorch官方微调Mask-RCNN遇到的坑
官网地址已经成功做好了这个实验,但是不得不吐槽一下官方的说明书,做实验的前提不交代好,尤其是这句话:In references/detection/, we have a number of helper functions to simplify training and evaluating detection models. Here, we will use references/detection/engine.py, references/detection/utils.py and ref原创 2020-05-27 12:09:29 · 2996 阅读 · 8 评论 -
对pytorch中optimizer.zero_grad()理解
刚接触pytorch不久,就遇到这种问题,既然要计算梯度(pytorch用loss.backward()计算各参数的梯度loss.grad),那为什么要先将上个epoch的梯度重置为0再去计算呢?其主要原因是:在torch.autograd中,上个epoch计算Variable中的grad成员也会自动变成Variable,也就是说,Variable变多了,但是这些Variable是不需要的,所以将其重置为0,让它不起作用。这样的话,下一次求的梯度就是之前Variable对应的梯度了。官方解释:We t原创 2020-05-25 08:39:46 · 2515 阅读 · 0 评论 -
pytorch 卷积 分组卷积 及其深度卷积
转载申明:https://blog.youkuaiyun.com/lyl771857509/article/details/84109695先来看看pytorch二维卷积的操作API现在继续讲讲几个卷积是如何操作的。一. 普通卷积torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)普通卷积时group默认为1 dilation=1(这里先暂时转载 2020-05-14 15:29:47 · 1058 阅读 · 0 评论