wsl-ubuntu配置cuda-tensorrt开发环境

WSL ubuntu20配置CUDA-CUDNN-TensorRT

  1. 官方安装cuda
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/7fa2af80.pub
sudo add-apt-repository "deb https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/ /"
sudo apt update
sudo apt- -y install cuda

备注:如果add-apt-repository被墙了,可以WSL设置一下apt的网络代理,在/etc/apt/apt.conf.d中创建文件proxy.conf,写入Acquire::http::Proxy "http://proxy_ip:port";

  1. 安装cudnn(cuda通过apt安装成功后)
sudo apt install libcudnn8-dev
  1. 安装TensorRT
    先在官网中下载需要的deb local repo格式的安装文件
sudo dpkg -i your_tensorrt_repo.deb
sudo apt update
sudo apt install tensorrt
### 配置 CUDATensorRTWSL 中 #### 安装必要的依赖项 为了在 Windows Subsystem for Linux (WSL) 中安装和配置 CUDA 及其深度学习库 TensorRT,首先需要确保已安装一些基本工具和依赖包。对于基于 Debian 的发行版如 Ubuntu,可以通过以下命令来完成这些操作: ```bash sudo apt-get update && sudo apt-get upgrade -y sudo apt-get install -y build-essential cmake git wget curl unzip pkg-config ``` 上述命令会更新软件源并升级现有包至最新版本,同时还会安装编译所需的工具链以及其它辅助开发工具[^2]。 #### 启用 WSL 2 并设置默认分发版 由于 NVIDIA 提供的官方支持仅限于 WSL 2 版本,因此需确认当前使用的确实是 WSL 2 而不是更早的 WSL 1。可以利用 PowerShell 来切换到 WSL 2: ```powershell wsl --set-default-version 2 ``` 接着指定某个特定的 Linux 发行作为默认启动的目标,比如 Ubuntu: ```powershell wsl --set-default <DistributionName> ``` 这里的 `<DistributionName>` 应替换为你实际安装的那个 Linux 发行的名字,通常就是 `Ubuntu` 或者带有版本号的形式如 `Ubuntu-20.04`。 #### 下载与安装 NVIDIA GPU Driver 和 CUDA Toolkit 访问[NVIDIA 官方网站](https://developer.nvidia.com/cuda-downloads),按照提示下载适用于 WSL 的驱动程序及 CUDA 工具集。注意选择正确的平台选项——即 "Linux" -> "WSL"。完成后依照页面上的指导逐步执行安装过程即可。 #### 设置环境变量 成功安装之后,记得把 CUDA 的路径加入系统的 PATH 环境变量里去以便后续调用方便。编辑用户的 shell profile 文件(例如 `.bashrc`, `.zshrc`),添加如下几行内容: ```bash export PATH=/usr/local/cuda/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH ``` 使更改生效可重新加载该文件或重启终端窗口: ```bash source ~/.bashrc # 如果使用的是 bash # 或者如果是 zsh 则运行下面这句 source ~/.zshrc # 如果使用的是 zsh ``` #### 安装 TensorRT TensorRT 是由 NVIDIA 开发的一个高性能推理优化器和支持库集合,专门用于加速神经网络模型部署。同样地,在[NVIDIA Developer Zone](https://developer.nvidia.com/tensorrt) 上找到对应版本的 TensorRT,并遵循文档说明来进行本地化部署工作。一般情况下,建议先通过 pip 安装 Python API 接口部分;而对于 C++ 用户,则可能还需要额外处理 tarball 形式的二进制发布包。 #### 测试安装成果 最后一步是要验证整个流程是否顺利完成。可以从 GitHub 获取一个简单的测试项目,它能够帮助快速检验 CUDATensorRT 是否正常运作。例如,尝试克隆 [NVIDIA/TensorRT-samples][tensorrt_samples_repo_link]仓库并依据其中 README.md 给出的操作指南构建样例工程。 [tensorrt_samples_repo_link]: https://github.com/NVIDIA/TensorRT/tree/master/samples
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值