在人工智能技术日新月异的今天,大型语言模型(LLM)已成为科技领域的热门话题。但对于大多数开发者和企业来说,如何高效、低成本地微调这些"庞然大物"仍是一个难题。
今天,我将为大家详细介绍如何使用LLaMA-Factory这一开源框架,从环境搭建到模型训练,再到实际应用,手把手教你打造属于自己的AI助手!

一、LLaMA-Factory:大模型微调的瑞士军刀
LLaMA-Factory是一个专为大型语言模型微调设计的开源框架,它就像是为大模型量身定制的"精加工车间"。这个框架最大的优势在于:
- 高效低成本:优化了微调过程中的资源消耗,让普通开发者也能负担得起
- 广泛兼容:支持近百种主流大模型,包括LLaMA、Qwen、DeepSeek等热门系列
- 操作简便:通过Web界面可视化操作,大大降低了技术门槛
“工欲善其事,必先利其器”,在开始我们的微调之旅前,让我们先搭建好这个强大的"工厂"。
二、环境搭建:三步打造专业微调平台
2.1 创建工作目录并克隆仓库
mkdir -p /data/train && cd /data/traingit clone https://github.com/hiyouga/LLaMA-Factory.git
2.2 安装依赖包
pip install -e .
在当前目录下查找Python包的元数据(如依赖关系、版本信息等),然后以可编辑模式安装该包及其所有依赖项。
-e 或者 --editable:这是一个选项,表示以可编辑模式安装包",后续对代码的任何修改都会立即生效,非常适合调试和开发;. 指定当前目录,pip查找当前目录下的setup.py文件。
2.3 配置Hugging Face镜像(国内用户必备)
huggingface_hub是指由Hugging Face提供的Python库,用于与Hugging Face的模型库进行交互,包括下载、上传和管理机器学习模型和数据集。具体来说:
- 安装:通过pip install -U huggingface_hub命令可以安装huggingface_hub库,确保使用最新版本。
- 功能:该库允许开发者访问Hugging Face Model Hub上的资源,包括预训练模型和数据集,便于模型的下载、加载和管理。
- 下载模型:可以使用huggingface-cli来下载模型,如:huggingface-cli download --resume-download Qwen/Qwen3-0.6B-Base --local-dir /data/models/Qwen/Qwen3-0.6B-Base,# 下载模型到指定的本地路径。
总之,huggingface_hub是一个强大的工具,帮助开发者高效地获取和管理Hugging Face上的机器学习资源。
由于网络限制,国内用户可以通过设置镜像源来加速下载:
export HF_ENDPOINT=https://hf-mirror.compip install -U huggingface_hub
三、模型获取:为微调准备"原材料"
选择适合的基座模型是微调成功的关键。这里我们以Qwen3-0.6B-Base模型为例:
mkdir -p /data/models/Qwen/Qwen3-0.6B-Basehuggingface-cli download --resume-download Qwen/Qwen3-0.6B-Base --local-dir /data/models/Qwen/Qwen3-0.6B-Base
```
**模型选择小贴士**:
* 对于普通任务:0.5B-7B参数量的模型性价比最高
* 对于专业领域:建议选择在相关领域有预训练的基座模型
* 资源有限时:可以考虑量化版本或小型模型
四、数据准备:打造专属"知识库"
================
---
数据是微调的灵魂,我们使用一个经济学相关的对话数据集作为示例:
4.1 下载数据集
---------
```plaintext
git clone https://github.com/echonoshy/cgft-llm.git cp cgft-llm/data/fintech.json /data/train/LLaMA-Factory/data/
这里选择的数据集文件是关于经济学的对话信息,内容如下:

数据准备黄金法则:
- 数据质量 > 数据数量:1000条高质量数据胜过10000条低质数据
- 领域聚焦:数据应紧密围绕目标应用场景
- 格式规范:确保数据格式与模型预期一致
五、微调实战
5.1 启动Web UI
cd /data/train/LLaMA-Factoryexport GRADIO_SERVER_PORT=8800nohup llamafactory-cli webui 2>&1 > webui.log &

5.2 配置微调参数

在Web界面中,我们需要关注几个核心参数:
- 学习率:通常设置在1e-5到5e-5之间
- 批处理大小:根据GPU内存调整,可从4开始尝试
- 训练轮次:3-5个epoch通常足够
- LoRA参数:rank一般设为8或16,alpha设为16或32
5.3 设置输出并开始

完成执行后输出模型:

内存优化技巧: 当遇到内存不足时,可以:
- 减小批处理大小
- 启用梯度累积
- 使用更高效的优化器(如Adafactor)
六、新模型的部署
6.1 模型合并与导出
将 base model 与训练好的 LoRA Adapter 合并成一个新的模型。训练完成后,我们需要将LoRA适配器与基础模型合并:
llamafactory-cli export --model_name_or_path /data/models/Qwen/Qwen3-0.6B-Base --adapter_name_or_path /data/train/LLaMA-Factory/saves/Qwen3-0.6B-Base/lora/train_2025-05-22-08-16-07 --template qwen3 --finetuning_type lora --export_dir /data/models/Qwen/Qwen3-0.6B-yangxl

6.2 使用vLLM高效部署训练好的模型
CUDA_VISIBLE_DEVICES=0 nohup python3 -m vllm.entrypoints.openai.api_server \ --model=/data/models/Qwen/Qwen3-0.6B-yangxl \ --served-model-name=Qwen3-0.6B-yangxl \ --dtype=bfloat16 \ --trust-remote-code \ --device=cuda \ --max-model-len=1024 \ --tensor-parallel-size=1 \ --gpu-memory-utilization=0.85 \ --enable-reasoning \ --reasoning-parser deepseek_r1 \ --port 8802 \ --api-key token-123456 &

七、新模型的测试
7.1 加载模型

7.2 提问
提示词:国际经济与贸易专业的就业是怎么样?

八、总结
- 训练环境的准备:准备LLaMA-Factory的环境有两种,本文只讲了一各较为复杂的方式;还有一种就是容器化的方式,只所以采用第一种方式,只是为了亲自体验一下;
- 训练数据的准备:将准备好的数据放到LLaMA-Factory下**/data**下,数据需满足以下几点要求:
- 数据质量 > 数据数量:1000条高质量数据胜过10000条低质数据
- 领域聚焦:数据应紧密围绕目标应用场景
- 格式规范:确保数据格式与模型预期一致;
- 训练参数配置:模型名称、模型路径、数据路径、数据集、训练轮数、最大样本数等;
- 训练后的新模型:检查新模型目录下的文件是否完整、导出新模型、新模型的部署和测试。
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:

2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:

三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】

四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!
LLaMA-Factory微调Qwen3实战
2万+

被折叠的 条评论
为什么被折叠?



