基于Xinference框架实现微调后Qwen/DeepSeek模型的流式与非流式批量推理

在当前大语言模型(LLM)蓬勃发展的时代,如何有效地利用和部署这些模型成为了许多开发者和研究者关注的焦点。在之前的《基于Transformer框架实现微调后Qwen/DeepSeek模型的非流式批量推理》《基于Transformer框架实现微调后Qwen/DeepSeek模型的流式推理并封装成接口》这两篇借助transformer库实现推理的基础上,本文将详细介绍如何基于Xinference框架来实现微调后Qwen/DeepSeek模型的推理,包括了流式与非流式两种推理方式的实现及其应用场景。


🎉进入大模型应用与实战专栏 | 🚀查看更多专栏内容


在这里插入图片描述

<

### 如何使用 Llama Factory 训练 Qwen3 思维模型 Llama Factory 是一个用于快速搭建微调大语言模型的工具包,能够帮助开发者高效完成模型训练、推理以及部署的任务。以下是关于如何使用 Llama Factory 训练 Qwen3 思维模型的相关说明。 #### 1. 准备工作 在开始之前,需要准备好必要的环境配置数据集。具体步骤如下: - **安装依赖库** 需要先安装 Llama Factory 的相关依赖项。可以通过 pip 或者 conda 安装所需的 Python 库[^1]。 ```bash pip install git+https://github.com/your-repo/llama-factory.git ``` - **下载基础模型** 下载 Qwen3 模型权重文件,并将其放置在一个固定的目录下。例如,在本地路径 `E:\LLamaFactory\Qwen3` 中存储该模型[^1]。 - **准备数据集** 构建适合任务需求的数据集,通常是以 JSON 文件或者 CSV 文件的形式保存对话对或指令对。这些数据将被用来指导模型学习特定领域内的知识[^2]。 #### 2. 修改配置文件 进入 Llama Factory 提供的配置模板目录,编辑对应的 YAML 文件来适配自己的项目设置。主要参数包括但不限于以下几个方面: - **Model Path**: 设置为已下载的基础模型路径,比如 `E:\LLamaFactory\Qwen3`. - **Adapter Name or Path**: 如果采用 LoRA 方法,则指定 Adapter 路径;如果不需要额外加载 Adapter,可以留空。 - **Template**: 使用与目标模型匹配的 Prompt Template,这里可能选择类似于 `llama3` 的格式。 - **Fine-tuning Type**: 明确指出使用的微调方式(如 Full Fine-Tune 还是 LoRA),推荐优先尝试效率更高的 LoRA 方案[^3]。 #### 3. 启动训练过程 通过命令行运行脚本来启动实际的训练流程。假设已经调整好了所有的超参设定之后,执行下面这条语句即可触发整个计算逻辑链路: ```bash llamafactory-cli train examples/training/qwen3_config.yaml ``` 这一步骤会依据定义好的规则自动处理输入样本集合,并不断迭代更新内部参数直至满足收敛条件为止[^3]。 #### 4. 推理服务化 当顺利完成训练环节后,就可以着手考虑如何对外暴露预测能力了。对于经过定制化的 Qwen3 思维版本而言,可以选择多种途径来进行后续操作,例如流式批量推理流式推理接口封装等等[^4]。 --- ### 示例代码片段 以下是一个简单的 Python 脚本例子展示如何加载预训练模型并对其进行进一步加工改造: ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("path/to/Qwen3") model = AutoModelForCausalLM.from_pretrained("path/to/Qwen3") def generate_text(prompt): inputs = tokenizer.encode(prompt, return_tensors="pt").to(model.device) outputs = model.generate(inputs, max_length=50) result = tokenizer.decode(outputs[0], skip_special_tokens=True) return result if __name__ == "__main__": prompt = "请描述一下未来科技的发展趋势" response = generate_text(prompt) print(response) ``` ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

羊城迷鹿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值