基于autodl与llama-factory微调llama3(五)

基于lora进行merge

在autodl中安装的llama-factory中,为我们明确提供了将训练的checkpoint重新与大模型合并的python函数。其具体路径为:LLaMA-Factory/examples/merge_lora

在该路径下找到llama3_lora_sft.yaml该代码,将其中具体的模型名、微调名、模版以及对应的输出模型名全部改为与自己autodl本地对应的,具体如下:

### Note: DO NOT use quantized model or quantization_bit when merging lora adapters

### model
model_name_or_path: /root/autodl-tmp/LLM-Research/Meta-Llama-3-8B-Instruct
adapter_name_or_path: saves/Custom/lora/train_v8
template: llama3
finetuning_type: lora

### export
export_dir: models/llama3_lora_sft
export_size: 2
export_device: cpu
export_legacy_format: false

修改完毕后,我们便可以利用以下代码,在终端中执行,便可以实现对应的模型合并工作。

llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml

完成后的模型如图所示:

后续可以对该模型进行部署或是api的设计。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值