
Pytorch
贾小树
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
pytorch安装---快速版
1、用conda 创建一个Python虚拟环境2、进入这个虚拟环境3、去pytorch官网:https://pytorch.org/get-started/previous-versions/找到满足自己Python版本和cuda版本的安装命令如:conda install pytorch==1.2.0 torchvision==0.4.0 cudatoolkit=10.0 -c pytorch注:上面安装时会跳过pytorch 和 torchvision的安装,因为这俩包太大,国内环境受原创 2020-07-10 15:14:42 · 491 阅读 · 0 评论 -
pytorch教学:torch.nn.parallel.DistributedDataParallel(DDP分布式训练)
DDP训练大致是一个GPU开一个线程,如果有两个GPU,则将dataset分成2份,然后一个GPU读取一份下面的代码能正确使用DDP分布式训练,直接参考即可注:本代码只适用于单机多卡训练,多机多卡的由于资源有限还没试过在终端的运行命令:python -m torch.distributed.launch --nproc_per_node 2 train.py其中2表示你有几个GPUimport datetimeimport osimport torchfrom torch impor原创 2020-07-07 08:36:43 · 6825 阅读 · 0 评论