pytorch 在docker中用到多线程dataloader时往往会因为dockers对share memory的限制报错
网上大多数解决方案要么是重建一个container 要么是把dataloader的num_worker设为0
第一个对于配好的环境之后实在太麻烦
第二种方案会导致训练速度明显变慢
通过这篇文章中的方法,修改对应的shmsize参数即可解决
https://blog.youkuaiyun.com/shmily_lsl/article/details/81166951
文章解决PyTorch在Docker环境下使用多线程Dataloader时因sharememory限制导致的问题,提供修改shmsize参数的方法,避免重建container或降低训练效率。
PyTorch 2.5
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理
pytorch 在docker中用到多线程dataloader时往往会因为dockers对share memory的限制报错
网上大多数解决方案要么是重建一个container 要么是把dataloader的num_worker设为0
第一个对于配好的环境之后实在太麻烦
第二种方案会导致训练速度明显变慢
通过这篇文章中的方法,修改对应的shmsize参数即可解决
https://blog.youkuaiyun.com/shmily_lsl/article/details/81166951
您可能感兴趣的与本文相关的镜像
PyTorch 2.5
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理
1万+
7853
2964
4771

被折叠的 条评论
为什么被折叠?