使用 Docker 构建 LLaMA-Factory 环境

使用 Docker 构建 LLaMA-Factory 环境可以简化依赖安装和环境配置。以下是关于如何使用 Docker 构建 CUDA、Ascend NPU 和 AMD ROCm 环境的详细说明。

1. 安装 Docker

首先,确保你的系统上已经安装了 Docker。如果没有安装,可以访问 Docker 官方网站获取安装说明,安装完成后确认 Docker 服务已经启动。

2. 获取 LLaMA-Factory 代码

在开始构建 Docker 容器前,需要将 LLaMA-Factory 的代码克隆到本地:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory

3. 使用 Docker Compose 构建

3.1 针对 CUDA 用户
  1. 进入 docker/docker-cuda/ 目录:

    cd docker/docker-cuda/
    
  2. 运行 Docker Compose 启动容器:

    docker compose up -d
    

    这条命令会在后台运行 Docker 容器。up -d中的-d表示容器将在后台运行。

  3. 进入容器内部:

    docker compose exec llamafactory bash
    

    这条命令会将你带入到名为 llamafactory 的容器中,并且你将能够在容器内操作。

3.2 针对 Ascend NPU 用户
  1. 进入 docker/d

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值