- 博客(6)
- 收藏
- 关注
原创 linux按行将两个txt合并成一个文件
需求:有两个文本文件都是单列数据,需要把他们按行合并到同一个文件中实践:paste 命令root@205_152 ~]# cat 1.txt 12345[root@205_152 ~]# cat 2.txt abcde[root@205_152 ~]# paste 1.txt 2.txt 1 a2 b3 c4 d5 e可以使用 -d 参数 加分割符[root@205_152 ~]# paste -d: 1.txt 2.txt 1:a2:
2022-04-07 10:54:48
2710
1
原创 修改PyTorch预训练模型的下载路径
修改PyTorch预训练模型的下载路径import osos.environ['TORCH_HOME']='models/pretrained'
2022-03-28 14:24:26
2198
原创 pytorch 分布式distributed 评测
1.主要函数import functoolsimport os,randomimport subprocessfrom collections import OrderedDictimport mmcvimport torchimport torch.multiprocessing as mpfrom torch import distributed as distdef get_dist_info(): if dist.is_available() and dist.is_
2022-03-02 16:22:57
1412
原创 pytorch 分布式多卡训练DistributedDataParallel
主要分为以下几个部分:单机多卡,DataParallel(简单,常用)多机多卡,DistributedDataParallel(最高级)注意事项一、单机多卡(DataParallel)from torch.nn import DataParallel model = MyModel()model = DataParallel(model).cuda()二、多机多卡(DistributedDataParallel)2.1 argparse和dist初始化设置from torch.u
2022-03-02 16:13:03
1000
原创 python多进程处理,看这个代码就够了
from multiprocessing import Poolfrom multiprocessing import TimeoutError as MP_TimeoutErrorpool = Pool(48)results = list()for i, imgPair in enumerate(imgPairs): l = pool.apply_async( _load_list, args=(sf_root, _disp_path, i))
2022-03-01 18:24:04
421
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅