
pytorch
pytorch 函数应用
weixin_43436587
这个作者很懒,什么都没留下…
展开
-
Faster RCNN RPN网络
1 Faster RCNN2RPN 网络注意的点(1)两次reshape的作用将(n,18,37,50)改为(n,2,37*9,50),然后做softmax(intput,1),dim=1,第一维是batch,对第二维进行softmax,如图,这样两两一组,能把每一个特征点都分成前景与背景。在这之后,再把维度改回去。...原创 2020-09-22 21:08:19 · 363 阅读 · 0 评论 -
torch.nn.functional.softmax(input) 维度学习
1. softmax(input, dim=none)import torch.nn.functional as Fimport torcha = torch.randn((2,3,2))b = F.softmax(a,1)c = F.softmax(a,2)d = F.softmax(a,0)"""aOut[5]: tensor([[[ 1.8777, 0.8479], [-0.7809, 2.1866], [-0.5761, 0.6063]]原创 2020-09-22 17:41:51 · 248 阅读 · 0 评论 -
pytorch CON2D
class torch.nn.Conv2d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=1,bias=True)输入: (N,C_in,L_in)输出: (N,C_out,L_out)输入输出的计算方式:Lout=floor((Lin+2padding−dilation(kernerlsize−1)−1)/stride+1)L_{out}=floor((L_{in}+2paddin转载 2020-05-23 17:29:25 · 199 阅读 · 0 评论 -
torch.data dataloader TensorDataset
pytorch-Dataloader多进程使用出错此时在数据的调用之前加上if name == ‘main’:即可解决问题myset = TensorDataset(x_train,y_train) #这两个参数直接填进去,输入关键词会出错。myloader = DataLoader(dataset=myset, batch_size=1, shuffle=False)https://pytorch-cn.readthedocs.io/zh/latest/package_references/d.原创 2020-05-12 19:54:51 · 271 阅读 · 0 评论 -
torch.ones,normal,max
转载torch.normal(means, std, out=None)means (Tensor) – 均值std (Tensor) – 标准差out (Tensor) – 可选的输出张量>>> n_data = torch.ones(5, 2)>>> print(n_data)tensor([[1., 1.], [1., 1.], [1., 1.], [1., 1.], [1.转载 2020-05-11 17:36:00 · 239 阅读 · 0 评论 -
torch zero_grad()函数
根据pytorch中backward()函数的计算,当网络参量进行反馈时,梯度是累积计算而不是被替换,但在处理每一个batch时并不需要与其他batch的梯度混合起来累积计算,因此需要对每个batch调用一遍zero_grad()将参数梯度置0.另外,如果不是处理每个batch清除一次梯度,而是两次或多次再清除一次,相当于提高了batch_size,对硬件要求更高,更适用于需要更高batch_size的情况。 optimizer.zero_grad()转载 2020-05-11 11:43:33 · 1856 阅读 · 0 评论