自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 DDP 多机代码bug记录

查找代码中某个层没有参与loss计算,DDP 多机代码bug记录。

2022-11-25 19:51:52 707

原创 linux按行将两个txt合并成一个文件

需求:有两个文本文件都是单列数据,需要把他们按行合并到同一个文件中实践:paste 命令root@205_152 ~]# cat 1.txt 12345[root@205_152 ~]# cat 2.txt abcde[root@205_152 ~]# paste 1.txt 2.txt 1 a2 b3 c4 d5 e可以使用 -d 参数 加分割符[root@205_152 ~]# paste -d: 1.txt 2.txt 1:a2:

2022-04-07 10:54:48 2710 1

原创 修改PyTorch预训练模型的下载路径

修改PyTorch预训练模型的下载路径import osos.environ['TORCH_HOME']='models/pretrained'

2022-03-28 14:24:26 2198

原创 pytorch 分布式distributed 评测

1.主要函数import functoolsimport os,randomimport subprocessfrom collections import OrderedDictimport mmcvimport torchimport torch.multiprocessing as mpfrom torch import distributed as distdef get_dist_info(): if dist.is_available() and dist.is_

2022-03-02 16:22:57 1412

原创 pytorch 分布式多卡训练DistributedDataParallel

主要分为以下几个部分:单机多卡,DataParallel(简单,常用)多机多卡,DistributedDataParallel(最高级)注意事项一、单机多卡(DataParallel)from torch.nn import DataParallel model = MyModel()model = DataParallel(model).cuda()二、多机多卡(DistributedDataParallel)2.1 argparse和dist初始化设置from torch.u

2022-03-02 16:13:03 1000

原创 python多进程处理,看这个代码就够了

from multiprocessing import Poolfrom multiprocessing import TimeoutError as MP_TimeoutErrorpool = Pool(48)results = list()for i, imgPair in enumerate(imgPairs): l = pool.apply_async( _load_list, args=(sf_root, _disp_path, i))

2022-03-01 18:24:04 421

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除