基于lora进行merge
在autodl中安装的llama-factory中,为我们明确提供了将训练的checkpoint重新与大模型合并的python函数。其具体路径为:LLaMA-Factory/examples/merge_lora
在该路径下找到llama3_lora_sft.yaml该代码,将其中具体的模型名、微调名、模版以及对应的输出模型名全部改为与自己autodl本地对应的,具体如下:
### Note: DO NOT use quantized model or quantization_bit when merging lora adapters
### model
model_name_or_path: /root/autodl-tmp/LLM-Research/Meta-Llama-3-8B-Instruct
adapter_name_or_path: saves/Custom/lora/train_v8
template: llama3
finetuning_type: lora
### export
export_dir: models/llama3_lora_sft
export_size: 2
export_device: cpu
export_legacy_format: false
修改完毕后,我们便可以利用以下代码,在终端中执行,便可以实现对应的模型合并工作。
llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml
完成后的模型如图所示:
后续可以对该模型进行部署或是api的设计。