(实验室GPU上跑)
一、安装modelscope
pip install modelscope
二、模型下载
1,编写python脚本d.py使用modelscope的API下载所需模型
vim d.py
from modelscope import snapshot_download
model_dir = snapshot_download(
'qwen/Qwen2-7B',
cache_dir='/home/user2/liu',
revision='master')
2,执行脚本:python /home/user2/liu/d.py
三、安装LLaMA-Factory
方式1:git 克隆仓库
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
方式2:github上下载压缩包并解压至服务器(此处选用方式2)
1,修改gradio默认端口
export GRADIO_SERVER_PORT=6006
2,启动LLaMA-Factory
llamafactory-cli webui
启动界面如下:
四、微调操作实践
1,Google浏览器访问UI界面: http://0.0.0.0:6006
2,配置模型本地路径:/home/user2/liu/qwen/Qwen2-7B(此处也可以直接使用Hugging Face模型库中的模型)
3,微调参数配置+预览+训练
训练完成结果:
微调后输出的模型权重路径:/home/user2/liu/LLaMA-Factory/saves/Qwen-7B/lora/