02 Docker安装

目录

一、CentOS安装Docker

卸载旧版本

配置yum资源库

安装gcc相关

安装Docker引擎

启动docker引擎

二、卸载Docker

三、docker run hello-world测试


一、CentOS安装Docker

参考官网:https://docs.docker.com/engine/install/centos/

docker官网:docker.com

docker hub官网:hub.docker.com

卸载旧版本

如果之前安装过Docker,需要先卸载旧版本:

sudo yum remove docker \
                  docker-client \
                  docker-client-latest \
                  docker-common \
                  docker-latest \
                  docker-latest-logrotate \
                  docker-logrotate \
                  docker-engine

旧版本的Docker引擎包可能叫做:dockerdocker-engine

新版本的Docker引擎包叫做:docker-ce

配置yum资源库

安装yum-config-manager

# yum-util提供yum-config-manager功能 
sudo yum install -y yum-utils

配置docker的资源库地址:

官方地址:(比较慢,不推荐)

# 在yum资源库中添加docker资源库
sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo

阿里云镜像地址:

sudo yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

阿里云官网提供了很多资源镜像,镜像地址:https://mirrors.aliyun.com,进入之后可以选择自己需要的资源进行配

创建缓存(可选):

yum makecache

安装gcc相关

yum install -y gcc gcc-c++

安装Docker引擎

安装最新版本的Docker引擎、Docker客户端:

# docker-ce是Docker引擎,docker-ce-cli是客户端
sudo yum install docker-ce docker-ce-cli containerd.io docker-compose-plugin

此时,默认安装的docker引擎、客户端都是最新版本。

如果要安装指定版本:

# 查询版本列表
yum list docker-ce --showduplicates | sort -r

# 指定版本安装17.09.0.ce版
# sudo yum install docker-ce-<VERSION_STRING> docker-ce-cli-<VERSION_STRING> containerd.io docker-compose-plugin
sudo yum install docker-ce-17.09.0.ce docker-ce-cli-17.09.0.ce containerd.io docker-compose-plugin

启动docker引擎

如果没有启动Docker引擎,那么执行 docker version查看版本号时,只能看到 Client: Docker Engine(Docker引擎客户端)的版本号。

启动Docker引擎:

# 新版本的Docker就是一个系统服务,可以直接使用启动系统服务方式启动
systemctl start docker

# 此时查看docker版本,可以看到Server: Docker Engine(Docker引擎)版本号
docker version

二、卸载Docker

卸载Docker步骤:

  1. 停止服务
systemctl stop docker
  1. 使用yum删除docker引擎
     
sudo yum remove docker-ce docker-ce-cli containerd.io
  1. 删除镜像、容器、卷、自定义配置等文件
 sudo rm -rf /var/lib/docker
 sudo rm -rf /var/lib/containerd

三、docker run hello-world测试

安装完成 运行hello word测试

docker run hello-world

docker run hello-world原理

<think>好的,用户需要关于在NVIDIA Triton中使用Docker进行安装的指南或教程。首先,我需要回忆之前提供的引用内容,特别是引用[2]和引用[3],里面提到了Docker安装和Triton的启动步骤。用户可能已经了解了一些基础,但需要更详细的步骤。首先,我应该确认用户的系统环境是否满足要求,比如Ubuntu20.04和NVIDIA驱动。然后,安装Docker和NVIDIA Docker工具包是必须的,这部分在引用[2]中有提到。需要确保用户正确安装并配置了运行时。接下来,用户需要拉取Triton的Docker镜像,这里需要注意版本兼容性,比如示例中的25.02-py3。然后,准备模型仓库,引用[3]中的示例模型仓库步骤可能需要详细说明,包括克隆和获取模型。启动容器时,参数设置很重要,比如挂载模型目录、GPU配置和网络设置。用户可能关心如何验证安装是否成功,比如检查容器日志中的“READY”状态。此外,发送推理请求的步骤可以简要提及,但用户可能更关注安装部分。还要考虑用户可能遇到的问题,比如权限问题、路径错误或GPU无法识别,应该在注意事项中提醒。比如确保Docker权限,模型仓库路径正确,以及NVIDIA驱动版本兼容性。最后,生成相关问题,帮助用户深入理解后续步骤,比如性能优化、模型配置和多模型部署。确保回答结构清晰,分步骤说明,并引用相关来源,如引用[3]的具体步骤。</think>### NVIDIA Triton Docker 安装指南 以下是基于 NVIDIA Triton 官方文档和实践总结的 Docker 安装步骤: --- #### **步骤 1: 环境准备** - **操作系统**: 推荐 Ubuntu 20.04/22.04 LTS - **NVIDIA 驱动**: 需安装适配 CUDA 版本的驱动(如 CUDA 11.6 对应驱动 ≥ 510.47.03)[^2] - **Docker 安装**: ```bash sudo apt-get update sudo apt-get install docker.io sudo systemctl enable --now docker ``` --- #### **步骤 2: 安装 NVIDIA Container Toolkit** 1. 添加仓库密钥: ```bash distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/libnvidia-container/gpgkey | sudo apt-key add - curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list ``` 2. 安装工具包: ```bash sudo apt-get update sudo apt-get install -y nvidia-container-toolkit sudo systemctl restart docker ``` --- #### **步骤 3: 拉取 Triton 镜像** 从 NGC 仓库获取预构建的 Triton 镜像(以 `25.02-py3` 版本为例): ```bash docker pull nvcr.io/nvidia/tritonserver:25.02-py3 ``` --- #### **步骤 4: 准备模型仓库** 1. 克隆示例模型仓库: ```bash git clone -b r25.02 https://github.com/triton-inference-server/server.git cd server/docs/examples ./fetch_models.sh ``` 2. 模型仓库目录结构示例: ``` model_repository/ ├── densenet_onnx │ ├── config.pbtxt │ └── 1 │ └── model.onnx ``` --- #### **步骤 5: 启动 Triton 容器** ```bash docker run --gpus=1 --rm --net=host -v ${PWD}/model_repository:/models nvcr.io/nvidia/tritonserver:25.02-py3 tritonserver --model-repository=/models --model-control-mode=explicit --load-model densenet_onnx ``` - `--gpus=1`: 分配 1 块 GPU - `-v`: 挂载本地模型目录到容器 - `--model-control-mode=explicit`: 手动控制模型加载[^3] --- #### **步骤 6: 验证安装** 检查容器日志输出: ``` I1002 14:20:33.487280 1 server.cc:592] ✅ Triton Server Ready ``` 或通过客户端发送测试请求(需安装 Triton 客户端库): ```python import tritonclient.http as httpclient client = httpclient.InferenceServerClient(url="localhost:8000") print(client.is_server_ready()) ``` --- #### **注意事项** 1. 若遇到权限问题,需将用户加入 `docker` 组: ```bash sudo usermod -aG docker $USER ``` 2. 模型仓库路径需绝对路径,避免挂载失败 3. GPU 未识别时检查 `nvidia-smi` 输出与驱动版本[^2] ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值