- 博客(11)
- 收藏
- 关注
原创 cuda、python、pytorch 版本兼容查看顺序及网站
安装 pytorch 时,若要使用 GPU,需要考虑与 CUDA,python 的版本兼容情况。推荐考虑顺序:CUDA 电脑GPU可/在使用的版本,pytorch可兼容CUDA的版本,python可兼容 pytorch的版本。在一个有GPU的电脑上安装pytorch时选择合适版本。接着,安装python,pytorch及其依赖项。
2023-09-08 22:22:26
3094
1
原创 使用FVD时遇到的问题记录:使用tensorflow时batch_size不变的情况下使用数据量更大的dataset发生了显存溢出(OOM)问题 的解决
情况:计算 FVD 时,使用 dataset-1 时运行成功,使用数据量(data size)更大的 dataset-2 时运行失败。报错OOM:显存溢出。查找问题:比较两次计算时的 input video 的 data shape,发现成功的那个是:[2, 64, 224, 224, 3],失败的那个是:[2, 180, 224, 224, 3]。注:shape各dim的含义是:[batch_size, num_frames, height, weight, depth]发现不对劲:input 的
2022-05-21 16:38:28
654
原创 关于TensorFlow和PyTorch共同安装的兼容版本尝试的记录 - env_name: tftorch
因为要使用的代码需要TensorFlow,而原本代码是基于PyTorch的,所以正在研究哪些TensorFlow和PyTorch版本可以兼容。因为要尽量保证两个代码都能够运行,所以比较麻烦。在这里专门记录一下,主要是寻找合适兼容版本的思路,以及相关零散但有用信息的命令、用于查找的网站的记录。.........
2022-04-16 20:19:54
6403
原创 深度优先遍历与广度优先遍历和栈与队列结构的关系回顾
算法与数据结构相关回顾对应关系深度优先遍历(DFS) —— 栈堆广度优先遍历(BFS) —— 队列遍历目标:寻找图中某一节点到另一节点的最短路径。区别栈堆:直接保存了遍历的最短路径即,找到目标节点后的栈堆内依旧存在的节点就是其最短路径。队列:通过step记录可以知道最短路径长度即,找到目标节点后的一个step变量记录了该目标节点与根节点(即起始节点)的距离。如果每个节点都记录了其父节点的信息,则可以依据找到的目标节点一步步反推,得到该最短路径所经过的所有节点。另,最短
2021-05-27 23:14:54
826
原创 关于数据库下载
关于数据库下载笔记1. 相关链接KTH:https://www.csc.kth.se/cvap/actions/Weizmann:http://www.wisdom.weizmann.ac.il/~vision/SpaceTimeActions.html2. 遇到的问题下载 KTH dataset 时,发现用Chrome浏览器网址打不开,换成QQ浏览器,成功打开并下载zip压缩包。具体过程:找到“Action database in zip-archives (DivX-compress
2021-05-06 11:22:36
610
原创 关于使用 hook 获取神经网络内部features时遇到的问题和解决方案的记录
关于使用 hook 获取神经网络内部features时遇到的问题和解决方案的记录一、错误代码:feat = []def hook(module, inputs, outputs): feat.append(inputs.clone().to(device))二、报错:AttributeError: 'tuple' object has no attribute 'clone'原因分析:inputs是一个由多个Tensor类型数据作为元素组成的Tuple数据。三、解决方案思考:由于后
2021-05-04 12:20:35
365
原创 加载模型参数到使用 DataParallel(model) 的模型的两种方法的代码
load model weights into DataParallel(model) 的两种方法的代码方法一G = Generator().to(device)G.load_state_dict(torch.load(args.model_path))G = nn.DataParallel(G) # 这样在传递时 G 的参数会被重置吗?经测试,没有明显差别方法二G = Generator().to(device)G = nn.DataParallel(G)G.module.load_sta
2021-03-05 18:05:28
984
原创 pth文件保存的模型参数对不同GPU环境不适应问题的解决方案研究
对于更改已保存的model weights以适应不同GPU数目的运行环境的(非正式、简略)研究的记录————————————brief——————————————结论:可行转换pth的代码思路简述load weights of DataParallel(model) run in 2gpusave weights of model in .pth file.—— 实际上到这一步已经可以了。有了这个 pth 文件,基本就OK了。我是因为积重难返,只能再加上后面几步操作来更好地解决自己遇到的问题。
2021-03-05 17:56:44
511
原创 DataParallel(model)的相关研究
DataParallel(model)的相关研究前提/已知:DataParallel用于多GPU并行计算,问题:那如果先用2个GPU来 training DataParallel(model)并保存权重,再load该权重到使用4个GPU来 training 的 DataParallel(model) 上,会不会报错?探究/实验设计:先用2gpu训练一个模型两天,并保存整个DataParallel(model)而非model的权重。然后,用 1 个GPU初始化 DataParallel(model
2021-03-04 15:39:52
678
3
原创 关于只用txt文件编程python时遇到的一些编码(utf-8)问题
一般用txt文件编程只是应急方法。简单来说,在txt文件内写好代码。然后,将文件重命名,后缀名由.txt改为.py。接下来就是在DOS界面进行运行了。这是没有安装python IDLE,即没有专门用于python编程的集成环境时的应急方法。而我因为用了anaconda,可以直接在jupyter notebook上编程,就懒得再下载Python IDLE了。然后就遇到了一个有趣的事情。因为有些代码涉及了与命令行,也就是DOS界面的交互。所以,用了txt文件编程,也即上一段介绍的方法。这个时候,在改为.py文
2020-07-13 11:02:45
376
原创 关于Windows10下面的nmap包安装到anaconda搭建的虚拟环境中的方法、流程
关于Windows10下面的nmap包安装到anaconda搭建的虚拟环境中的方法、流程步骤简介第一步第二步曾经遇到的问题建议步骤简介第一步:先官网下载并安装nmap,添加环境变量。第二步:再用prompt activate对应虚拟环境,然后pip安装nmap与python-nmap。第一步nmap软件的官网.如以下截图所示,点击官网中的 nmap-7.80-setup.exe下载安装包。下载完成后的安装包如下图所示,黑框部分才是下载的安装包,其它的不用管。直接双击安装。安装时除了安装路
2020-07-08 22:51:08
963
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人