LlamaFactory Lora 合并大模型,GGUF 转换与 Ollama 部署Open_WebUI全流程

模型合并

将 base model 与训练好的 LoRA Adapter 合并成一个新的模型。注意:不要使用量化后的模型或
quantization_bit参数进行合并。

我们可以在llamafactory界面上讲模型进行合并,或者是使用命令行对模型进行合并

1、使用界面对模型进行合并

在这里插入图片描述

2、使用命令行对模型进行合并

首先这里你需要新建一个配置文件merge_llama3_lora_sft.yaml(名字可以自定义)
以下是 merge_llama3_lora_sft.yaml 的内容:

### Note: DO NOT use quantized model or quantization_bit when merging lora 
adapters
 ### model
 model_name_or_path: /root/autodl-tmp/models/Llama3-8B-Chinese-Chat/
 adapter_name_or_path: /root/code/LLaMA-Factory/saves/LLaMA3-8B-Chinese
Chat/lora/train_2024-05-25-20-27-47
 template: llama3
 finetuning_type: lora
 ### export
 export_dir: /root/autodl-tmp/models/LLaMA3-8B-C
### 如何将AI模型文件转换GGUF格式 要将AI模型文件转换GGUF格式,通常可以通过特定的脚本来完成这一过程。以下是关于此操作的具体说明: #### 转换流程概述 `convert_hf_to_gguf.py` 是一个常用的脚本,用于将Hugging Face上的模型文件转换GGUF格式[^3]。该脚本能够读取来自Hugging Face的预训练权重,并按照GGUF的标准重新组织这些数据。 #### 安装必要的依赖项 在执行转换之前,需要确保已安装所需的依赖库。这一步骤可能涉及Python包管理器pip或其他工具。具体命令如下所示: ```bash pip install transformers sentencepiece accelerate safetensors ``` 上述命令会安装一系列必需的库,以便成功运行转换脚本[^2]。 #### 使用脚本进行转换 假设已经准备好了目标模型的位置,则可通过调用 `convert_hf_to_gguf.py` 来启动转换进程。下面是一个典型的例子: ```bash python convert-hf-to-gguf.py --out_type q4_0 ./models/microsoft/phi-2 ``` 在此实例中,`--out_type q4_0` 参数指定了输出文件应采用何种量化级别;而最后的部分则是输入模型所在的目录路径[^4]。 #### 自动生成手动设置输出位置 当不提供额外参数时,默认情况下生成的GGUF文件会被放置于源模型所在同一文件夹下[^1]。然而,如果希望更改默认行为或者指定确切的目标地址,那么可以利用 `--dst` 选项实现这一点。 #### 关于GGUF格式的意义 GGUF代表了一种改进后的单文件共享方案,旨在克服先前GGML版本中存在的局限性——比如缺乏足够的灵活性以及较差的兼容性和可维护性等问题[^5]。因此,在实际应用过程中选用这种新型格式往往能带来诸多便利之处。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值