1、查看电脑的GPU是否支持TensorRT 这篇
Compute Capability,记得这个关键词
各个显卡算力查询:CUDA GPUs - Compute Capability | NVIDIA Developer
例如,我的笔记本 NVIDIAGeForce RTX 3070 Laptop GPU 显卡:8.6
公司服务器算力:
| GeForce RTX 3090 | 8.6 |
工程:
煤流检测 yolov8 的分割模型
环境:
首先打开WSL
wsl -d Ubuntu-22.04
1. WSL升级WSL2(必做)
WSL v1不支持直接使用Windows的GPU,就算做了下面的所有步骤也没办法用,torch.cuda.is_available()会永远返回FALSE,所以一定要检查使用的WSL版本,打开Powershell或者命令提示符输入:
wsl -l -v
查看VERSION下的数字,如果是1要升级到2,具体步骤请参考:Lighten:WSL1升级为WSL2
2. 安装 pytorch,cuda,cudnn
首先
因为yolov8 好像支持最新的pytorch 2.0.0系列,那我安装最新的
pytorch 2.1.1,需要 CUDA 11.8
通过 conda search cudatoolkit --info 查询存在 CUDA 11.8 安装包,
再看一下conda提供的所有cudatoolkit 查看cudnn版本: &nb

本文详细介绍了如何在WSL2环境中检查GPU支持TensorRT,升级WSL到WSL2,安装PyTorch、CUDA和cudnn,以及配置TensorRT环境,包括解决CUDALazyLoading问题和TensorRTsample_onnx_mnist的运行。最后探讨了将yolov8模型转换为TensorRT引擎的过程。
最低0.47元/天 解锁文章
702

被折叠的 条评论
为什么被折叠?



