LLaMA Factory 安装与配置指南:在 Ubuntu 上快速搭建大模型微调平台

部署运行你感兴趣的模型镜像

什么是LLaMA Factory?
LLaMA Factory 是一个开源的大语言模型微调框架,它提供了一套高效、易用的工具集,支持多种主流大语言模型(如LLaMA、ChatGLM、Qwen 等)的微调与部署。该框架具有以下突出特点:
·支持模型丰富:兼容100+ 种大语言模型,涵盖LLaMA、Baichuan、ChatGLM、Qwen 等主流架构
·训练效率高:集成多种高效微调技术(LoRA、QLoRA 等),大幅降低显存需求
·界面友好:提供直观的Web UI,支持零代码操作的模型训练与推理
·功能完整:覆盖模型预训练、指令微调、奖励模型训练等全流程
无论您是研究者、开发者还是企业用户,LLaMA Factory 都能帮助您快速构建和定制专属的大语言模型应用。
环境安装与LLaMA Factory配置
一、安装git
在终端中执行以下命令,安装Git 工具:
sudo apt install git
在这里插入图片描述二、下载LLama-factory
使用Git 克隆LLaMA Factory
项目仓库:git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git在这里插入图片描述

三、安装conda
1、安装Conda 所需依赖:
sudo apt install libgl1-mesa-glx libegl1-mesa libxrandr2 libxrandr2 libxss1 libxcursor1 libxcomposite1 libasound2 libxi6 libxtst6在这里插入图片描述

2、下载conda 安装包
wget https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Linux-x86_64.sh在这里插入图片描述

3、安装conda
bash Anaconda3-2024.10-1-Linux-x86_64.sh
一路回车和yes,注意: 终端出现Anaconda3 will now be installed into this location:可输入自定义路径进而支持自定义conda安装路径(直接回车会默认安装到HOME目录)。在这里插入图片描述
在这里插入图片描述

4、conda配置环境,默认没有配置环境(如下图)在这里插入图片描述

查看conda安装位置在这里插入图片描述

输入nano ~/.bashrc在这里插入图片描述

在bashrc文件的最后一行加入:export PATH=/home/ad/anaconda3/bin:$PATH (ad是自己的用户名)。按Ctrl+x
保存并退出编辑在这里插入图片描述

配置生效在这里插入图片描述

用conda -V查看版本正常了在这里插入图片描述

四、创建环境
1、创建llama-factory微调环境
conda create -n llama-factory python=3.10在这里插入图片描述
在这里插入图片描述

激活环境
conda activate llama-factory
我这里配置环境后直接进入激活环境报错(要先初始化)在这里插入图片描述

解决:
source activate(重新进入虚拟环境)
conda deactivate (退出性能环境)
conda activate llama-factory(重新激活虚拟环境)在这里插入图片描述

2、进入llama-factory环境后,进入到LLama-Factory文件下,安装相关依赖
pip install -e “.[torch,metrics]” --no-build-isolation -i https://mirrors.aliyun.com/pypi/simple![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/8579afb4efda4064850bfbe6ba999181.png#pic_center
在这里插入图片描述
在这里插入图片描述

3、启动LLama-Factory在这里插入图片描述

(这里我用的是虚拟机ubuntu20.4安装LLama-Factory,可以在win系统下通过虚拟机IP地址访问LLama-Factory界面)在这里插入图片描述

ubuntu可视化系统也能访问LLama-Factory在这里插入图片描述

五、gradio公开域名微调
如果ubuntu是服务器版本没有桌面的,你又想使用图形化微调,可以通过
gradio创建公开域名链接进行微调
0表示第一张显卡:CUDA_VISIBLE_DEVICES=0
1表示创建1个域名链接:GRADIO_SHARE=1
查看有多少张卡:nvidia-smi -L在这里插入图片描述

1、启动命令行:
CUDA_VISIBLE_DEVICES=0 GRADIO_SHARE=1 llamafactory-cli
gradio报错:在这里插入图片描述

解决:
创建目录:mkdir -p /home/ad/.cache/huggingface/gradio/frpc在这里插入图片描述

进入目录:cd /home/ad/.cache/huggingface/gradio/frpc在这里插入图片描述

这个下载方式可能有问题:
wget https://github.com/gradio-app/gradio/raw/main/gradio/frpc_linux_amd64-O frpc_linux_amd64_v0.3在这里插入图片描述

我用win浏览器下载,然后手动上传到frpc文件下:
链接:https://cdn-media.huggingface.co/frpc-gradio-0.3/frpc_linux_amd64在这里插入图片描述

上传进frpc文件里,然后重命名
mv frpc_linux_amd64 frpc_linux_amd64_v0.3在这里插入图片描述

添加权限 chmod +x frpc_linux_amd64_v0.3在这里插入图片描述

启动 CUDA_VISIBLE_DEVICES=0 GRADIO_SHARE=1 llamafactory-cli webui在这里插入图片描述

这样就生成了一条公开域名,你也可以分享给其他人用:
https://265175b551a47a2dd5.gradio.live/在这里插入图片描述

六、下载模型
方法一:从Hugging-Face上下载
1、创建文件夹存放模型:mkdir Hugging-Face在这里插入图片描述

2、临时修改HuggingFace镜像源(加速下载)
export HF_ENDPOINT=https://hf-mirror.com在这里插入图片描述

3、临时修改模型默认下载位置
export HF_HOME=/home/ad/Hugging-Face在这里插入图片描述

4、2和3是临时会话的,永久配置教程:
进入配置文件: sudo vi ~/.bashrc在这里插入图片描述

写入内容:
export HF_ENDPOINT=https://hf-mirror.com
export HF_HOME=/data/Hugging-Face在这里插入图片描述

按i编辑,按Esc再按:wq (保存退出)退出后,配置生效:
source ~/.bashrc
5、验证生效
echo $HF_HOMEecho
$HF_ENDPOINT在这里插入图片描述

6、安装HuggingFace官方下载工具
pip install -U huggingface_hub -i https://mirrors.aliyun.com/pypi/simple在这里插入图片描述

7、选择模型:
https://huggingface.co/Qwen/Qwen1.5-4B-Chat在这里插入图片描述

8、下载模型:
huggingface-cli download --resume-download Qwen/Qwen1.5-4B-Chat在这里插入图片描述

黄色是警告,这里说旧命令已经被弃用:⚠️ Warning: ‘huggingface-cli download’ is deprecated. Use ‘hf download’ instead.
8、模型加载成功(如果下载模型后没有自动显示路径,则需要自己到ubuntu找到模型下载的路径进行复制放到Model Path)在这里插入图片描述

方法二:git lfs 下载模型方式
1、安装命令:sudo apt install git-lfs
2、魔塔找需要的模型链接:https://modelscope.cn/models在这里插入图片描述

3、下载模型:
git clone https://www.modelscope.cn/Qwen/Qwen1.5-0.5B-Chat.git在这里插入图片描述
在这里插入图片描述

方法三:modelscope下载模型方式
1、在llama-factory环境下载modelscope库,通过库下载:pip install modelscope在这里插入图片描述

2、下载Qwen模型
modelscope download --model Qwen/Qwen3-VL-30B-A3B-Instruct --local_dir ‘root/qwen/qwen’ (–local_dir 'root/qwen/qwen’修改下载地址到qwen文件)在这里插入图片描述
完成以上步骤,至此你就可以微调大模型了
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Python3.8

Python3.8

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值