pytorch
msdhy
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
nn.ModuleList()与nn.Sequential()
nn.ModuleList()构建的组件没有顺序,而nn.Sequential()构建的有顺序。nn.ModuleList()有个好处是 在forward时,中间层可以多个输入。nn.Sequential()直接默认从上到下运行。其实也可以在中间层改变输入,像字典那样取key值,但显然没有for直接循环简单。nn.Modulelist()...def __init__(self, ...): self.op_num = 3 self._op_trans = nn.Modul原创 2022-05-24 21:34:31 · 759 阅读 · 0 评论 -
Python FFT实现
import numpy as npimport cv2import matplotlib.pyplot as plt# # file_path = 'D:\\code_python\\KAIR\\visualization\\x0.png'# file_path = 'D:\\dataset\\test\\classic5\\lena.bmp'# img = cv2.imread(file_path)[:,:,0] #cv2默认是BGR通道顺序,这里调整到RGB# # img = cv2..原创 2022-04-23 22:35:52 · 4908 阅读 · 1 评论 -
BatchNorm LayerNorm InstanceNorm与Pytoch
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档BatchNorm 对一个batch中的每个通道做归一化,计算范围是(N,H,W).在Inference阶段,均值和方差使用训练收敛后的均值和方差(相当与整个训练集的均值和方差)torch.nn.BatchNorm2d(Channels)>>> m = torch.nn.BatchNorm2d(100)>>> m.running_meantensor([0., 0., 0., 0.,原创 2021-07-28 16:08:25 · 435 阅读 · 0 评论 -
神经网络训练出现 Inf 或 NaN
问题描述:神经网络训练出现 Inf 或 NaNSeed: 19--- Hyper-parameters for training ---learning_rate: 0.002crop_size: [128, 128]train_batch_size: 4val_batch_size: 1lambda_loss: 0.04category: deraininter_dim: 64--- no weight loaded ---Total_params: 7858012G..原创 2021-03-30 14:47:25 · 4489 阅读 · 0 评论 -
pytorch查看某一层的参数量
查看某一个网络层的参数量;class model(nn.Module): def __init__(self, in_features, bias): self.linear_q = nn.Linear(in_features, in_features, bias) def forward(self, x): out = self.linear_q(x) print('self.linear_q: ', sum(m.numel() for m in self.linear_q.para原创 2020-12-24 09:47:17 · 1505 阅读 · 0 评论 -
pytorch程序常出现的不知所云问题CUDA error: device-side assert triggered
项目场景:pytorch程序常出现的不知所云问题问题描述:CUDA error: device-side assert triggered在使用切片等时出现错误RuntimeError: CUDA error: device-side assert triggered原因分析:很多博客是就事论事,问题是坐标引用溢出。问题不在报错的那一行,需要看看代码中哪里使用了切片、引用下标等。下面代码就会出现该报错:a = torch.randn(10)a[11]参考:htt原创 2020-11-24 14:13:28 · 792 阅读 · 0 评论
分享