- 博客(6)
- 收藏
- 关注
原创 python-按相同顺序打乱伪标签和数据集-np.random.get_state()和np.random.set_state()函数
for循环内第一个setstate用来加载;从而将dataloader加载数据集时shuffle设置为True,但又要按照相同顺序打乱伪标签,试了多种方法均失败。将state = np.random.get_state()放在训练代码的随机种子之后和for epoch循环中的最后一行,将np.random.set_state(state)放在打乱标签的前一行。下图是执行结果,可以看到a与b相同,c与d相同,也就是getstate之后第一次打乱与setstate的第一次打乱相同,第二次与第二次相同。
2024-04-07 14:08:18
291
1
原创 torch.nn中Conv1d的应用,数据为1行205列
torch.nn中Conv1d的应有,数据为1行205列。RuntimeError:Given groups = 1,weight of size [16,1,3],expected input [1,16,205] to have 1 channels,but got 16 channels instead
2023-05-17 10:56:28
672
4
原创 jupyter更改起始文件夹的方式
⑤重启jupyter notebook,应该就更改成功了,也有概率失败,我也改了好多次,切记不要在执行第一步那个命令了,执行了也输入n,否则起始文件又该回去了。②复制上面的文件位置打开,ctrl+F搜索c.NotebookApp.notebook在等号后面的双引号中加上文件路径,最好是英文,单斜杠变为双斜杠。④邮件jupyter notebook 属性目标蓝色部分,将.py后的字符删除,并加空格加上文件位置,⑥第五步选n也没用,我的又被该回去了,懒得整了。并将起始位置改为文件位置,之后点击应用,点击保存。
2023-03-28 15:22:44
915
原创 pytorch中relu的参数inplace的理解
观察地址,不难发现a的地址没变,c的地址发生了变化,此时又因为b和d分别指向初试a和c的内存,所以b的值等于更新后a的值,而d的值等于c原来的值。此时a,b共占内存2两块,cd共占内存3块,所以inplace=true的作用为减少内存占用。参照其他作者描述,inplace=false,就相当于a = a + 1;而inplace = True,就相当于a += 1;inplace = false,就相当于另外开辟内存进行计算,inplace = true, 就相当于在原内存计算,作用显而易见,节省内存。
2023-03-19 15:57:27
1293
原创 Anaconda3中torch.cuda.is_available()返回false的可能解决办法
在CUDA,cudnn,已装好,指令conda install pytorch torchvision torchaudio pytorch-cuda=11.7 -c pytorch -c nvidia一直转圈,不得已使用pip指令执行完成之后,torch.cuda.is_available()依旧返回False
2022-12-30 17:49:58
2467
3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人