使用 Docker 构建 LLaMA-Factory 环境可以简化依赖安装和环境配置。以下是关于如何使用 Docker 构建 CUDA、Ascend NPU 和 AMD ROCm 环境的详细说明。
1. 安装 Docker
首先,确保你的系统上已经安装了 Docker。如果没有安装,可以访问 Docker 官方网站获取安装说明,安装完成后确认 Docker 服务已经启动。
2. 获取 LLaMA-Factory 代码
在开始构建 Docker 容器前,需要将 LLaMA-Factory 的代码克隆到本地:
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory
3. 使用 Docker Compose 构建
3.1 针对 CUDA 用户
-
进入
docker/docker-cuda/
目录:cd docker/docker-cuda/
-
运行 Docker Compose 启动容器:
docker compose up -d
这条命令会在后台运行 Docker 容器。
up -d
中的-d
表示容器将在后台运行。 -
进入容器内部:
docker compose exec llamafactory bash
这条命令会将你带入到名为
llamafactory
的容器中,并且你将能够在容器内操作。
3.2 针对 Ascend NPU 用户
-
进入
docker/d