wsl部署Ubuntu20.04配置YOLOV5算法相关环境

wsl2 部署可以参考我的上一篇文章http://t.csdnimg.cn/zkRiS

首先下载对应的Anaconda版本,通过输入查询

uname -a

在上官网下载对应的文件

Index of / (anaconda.com)

随后输入以下代码进行安装

bash Anaconda3-2022.05-Linux-x86_64.sh

一直点击enter直到出现选择yes

最终会出现以下画面表示成功安装

首先激活一下环境

source ~/.bashrc 

接下来创建虚拟环境:

conda create -n yolo python=3.8

可能会出现下面的问题

  • 在终端输入conda info --envs检验anaconda是否安装成功,发现报错:conda: command not found 原因是因为~/.bashrc文件没有配置好
  • 简单来说,就是找不到ananconda的位置,需要添加一下
### 使用WSL和Docker在远程服务器中部署深度学习模型的最佳实践 #### 1. 远程服务器上的WSL配置 在远程服务器上启用WSLWindows Subsystem for Linux),需要确保服务器的操作系统支持WSL功能。通常情况下,这适用于运行Windows Server版本的企业级服务器。可以通过PowerShell命令`wsl --install`来快速安装最新的Linux发行版[^2]。 对于深度学习应用而言,建议选择Ubuntu作为主要的Linux子系统,因为它拥有广泛的社区支持以及兼容性强的特点。完成基本设置之后,还需要更新系统的软件包列表并升级现有程序至最新稳定版本: ```bash sudo apt update && sudo apt upgrade -y ``` #### 2. 安装Docker服务 一旦设置了合适的Linux环境,则可继续进行Docker容器引擎的安装过程。由于官方文档提供了详尽指导,这里只概述关键步骤: - 添加Docker APT仓库密钥; - 配置APT源指向官方存储库地址; - 执行实际安装操作 `apt install docker-ce docker-ce-cli containerd.io`. 验证成功启动状态可通过如下指令实现: ```bash docker version ``` 如果一切正常的话,应该能看到客户端和服务端的相关信息显示出来[^1]。 #### 3. 创建适合于深度学习工作的镜像 考虑到GPU加速的需求,推荐采用NVIDIA专门维护的一系列预构建好的CUDA-enabled基础镜像。这些资源已经包含了必要的驱动程序和支持库文件夹结构等要素,极大简化了后续工作流程中的复杂度。 创建自定义Dockerfile时需要注意几点事项: - 基础层选取nvidia/cuda:xx-base-rockylinux 或者其他相似命名模式; - 明确指定Python解释器及其依赖项清单(比如pip freeze); - 将项目代码复制到目标路径下并通过ENTRYPOINT或者CMD声明入口函数位置. 例如下面给出了一段简单的例子用来说明如何编写这样的脚本文件: ```Dockerfile FROM nvidia/cuda:11.7-base-ubuntu20.04 RUN apt-get update && \ DEBIAN_FRONTEND=noninteractive apt-get install -y python3-pip git && \ rm -rf /var/lib/apt/lists/* WORKDIR /app COPY requirements.txt . RUN pip3 install --no-cache-dir -r requirements.txt COPY . . CMD ["python3", "main.py"] ``` #### 4. 构建与推送镜像到注册表 当准备好上述材料后就可以利用docker build命令生成最终产物并将它上传至公共/私有云平台供以后调用加载之用了。假设当前目录即为包含所有必要组件的地方那么执行以下两步即可达成目的: ```bash docker build -t my-deep-learning-model:v1 . docker push my-deep-learning-model:v1 ``` #### 5. 测试部署效果 最后一步就是确认整个链条是否能够顺利运作起来啦! 可以尝试拉取刚才制作完毕的那个映射实例下来跑一下看看有没有什么异常情况发生. ```bash docker pull my-deep-learning-model:v1 docker run --gpus all -it my-deep-learning-model:v1 ``` 以上便是关于借助WSL加Docker技术组合实现在远端机器上面布置AI算法模型的一些核心要点分享给大家参考借鉴. ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ROS研究员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值