Qwen模型LoRA微调后的两种启动方式

本文记录了在使用LoRA微调后的Qwen模型时的两种启动方式,一种是原始模型+LoRA模型,一种是将两个模型合并保存后再调用的方式。

LoRA模型的启动方式

LoRA模型可以通过peft包中的AutoPeftModelForCausalLM进行加载:

from peft import AutoPeftModelForCausalLM

# 设置LoRA微调后的模型存储路径(checkpoint)
model = AutoPeftModelForCausalLM.from_pretrained("/home/<用户名>/nlp/Qwen/finetune/output_qwen_medical/checkpoint-1000/", device_map='auto',trust_remote_code=True).eval()

LoRA模型加载完毕还是需要transformers里面的AutoTokenizer:

from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("/home/<用户名>/nlp/Qwen/model/qwen/Qwen-1_8B-Chat", trust_remote_code=True)

然后再调model的chat方法即可:

# 第一轮对话
response, history = model.chat(tokenizer, "....", history =None)
print(response)

以合并LoRA模型与原始模型的参数方式加载

保存模型参数:

# 可以将LoRA参数与原始参数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值