基于LLaMA-Factory框架对Qwen2-7B微调实践

(实验室GPU上跑)

一、安装modelscope

pip install modelscope

二、模型下载

1,编写python脚本d.py使用modelscope的API下载所需模型

vim d.py

from modelscope import snapshot_downloadmodel_dir = snapshot_download('qwen/Qwen2-7B',cache_dir='/home/user2/liu',revision='master')

2,执行脚本:python /home/user2/liu/d.py

三、安装LLaMA-Factory

方式1:git 克隆仓库

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

cd LLaMA-Factory

pip install -e ".[torch,metrics]"

方式2:github上下载压缩包并解压至服务器(此处选用方式2)

1,修改gradio默认端口

        export GRADIO_SERVER_PORT=6006

2,启动LLaMA-Factory

         llamafactory-cli webui

启动界面如下:

四、微调操作实践

1,Google浏览器访问UI界面: http://0.0.0.0:6006

2,配置模型本地路径:/home/user2/liu/qwen/Qwen2-7B(此处也可以直接使用Hugging Face模型库中的模型)

3,微调参数配置+预览+训练

训练完成结果:

微调后输出的模型权重路径:/home/user2/liu/LLaMA-Factory/saves/Qwen-7B/lora/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值