使用LLaMA-Factory微调Qwen2.5-0.5B实验记录

1.安装LLaMA-Factory

先在github上拉取项目代码

https://github.com/hiyouga/LLaMA-Factory.git 

进入项目目录

cd LLaMA-Factory 

创建虚拟环境

conda create -n factory python=3.11 

下载安装包

pip install -e ".[torch,metrics]"  

2.启动 LLaMA-Factory前端页面

llamafactory-cli webui 

这里可能会报错,直接重新创建虚拟环境,按照流程重新安装:

RuntimeError: Failed to import trl.trainer.dpo_trainer because of the following error (look up to see its traceback):
cannot import name 'log' from 'torch.distributed.elastic.agent.server.api' (/opt/conda/lib/python3.10/site-packages/torch/distributed/elastic/agent/server/api.py)

3.训练参数设置

 设置完成后点击开始

训练正常开始

训练过程中,损失函数可以实现可视化

4.推理

采用lora动态合并的方式,会加载基础模型并应用 LoRA 微调适配器,从而实现微调后的模型效果。

CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat  
--model_name_or_path /model/Qwen2.5-0.5B-Instruct/  
--adapter_name_or_path /LLaMA-Factory/LLaMA-Factory/saves/Qwen2.5-0.5B/lora/train_2024-11-13-16-17-06/checkpoint-186  
--template qwen

推理效果正常 

 5.Lora权重合并

进入Lora合并的yaml文件夹下:

cd LLaMA-Factory/LLaMA-Factory/examples/merge_lora

新建一个qwen2.5_lora_sft.yaml文件,仿照项目中的llama3_lora_sft.yaml,创建合并的yaml文件

### model
model_name_or_path: /model/Qwen2.5-0.5B-Instruct  #基础模型路径
adapter_name_or_path: /LLaMA-Factory/LLaMA-Factory/saves/Qwen2.5-0.5B/lora/train_2024-11-14-09-03-29/checkpoint-321    #微调保存的Lora权重路径
template: qwen
finetuning_type: lora

### export
export_dir: /model/Qwen2.5-0.5B-merge   #合并后模型文件导出路径
export_size: 2
export_device: cpu
export_legacy_format: false

 进入到LLaMA-Factory根目录下,执行合并命令

llamafactory-cli export examples/merge_lora/qwen2.5_lora_sft.yaml

 推理测试

CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat  
--model_name_or_path /model/Qwen2.5-0.5B-merge    
--template qwen

有一个小问题,实验采用的是刑法instruct数据集,发现采用上面的动态lora合并推理效果好像更好,有了解的朋友还请帮忙解答,感谢!

LLAMA(Large Language Model Agent for Multi-purpose Applications)是一种基于大语言模型的应用框架,而Qwen是一个开源的语言模型,常用于问答场景。要在没有GPU的电脑上部署Qwen2,你需要通过lamma-factory进行简化安装和配置。以下是大致步骤: 1. **环境准备**: - 安装Python基础环境(包括pip) - 确保已安装必要的依赖,如TensorFlow(可以选择CPU版本) ```sh pip install python==3.8 pip install numpy tensorflow-cpu ``` 2. **获取模型**: - 从GitHub或其他官方源下载预训练的Qwen模型。Llama-factory通常会提供适用于CPU的模型。 ```sh git clone https://github.com/qwen-project/qwen.git cd qwen ``` 3. **配置**: - 进入模型目录,检查`lama_factory/config.py`文件,将`device`设置为`cpu`,确保不会尝试使用GPU资源。 4. **初始化模型工厂**: ```python from lama_factory import LlamaFactory factory = LlamaFactory(config_file='lama_factory/config.yaml') ``` 5. **加载并运行模型**: - 使用工厂创建Qwen实例,并在需要的时候进行交互。 ```python lama = factory.create_agent() response = lama.generate_response(prompt="你好,我是Qwen") print(response) ``` 6. **处理输入和输出**: - 将用户的问题作为prompt传递给模型,接收并打印其响应。 7. **启动服务**: 如果你想构建一个本地服务供外部访问,可以使用`lama_factory.run_server()`,指定监听的端口。 注意:由于Qwen的计算需求较大,运行在CPU上可能会较慢。如果对速度有较高要求,可以考虑使用更小的模型或者分布式计算。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值