大模型训练与微调实战手册(以 Qwen 为例),大模型入门到精通,收藏这篇就足够了!

大模型训练与微调实战指南

前序:

  • 概念与流程:预训练 → 继续预训练(领域自适应) → 指令微调(SFT) → 偏好对齐(DPO/ORPO/KTO) → 强化学习对齐(PPO)。
  • 可复用的代码模板:Hugging Face/TRL/PEFT、ms-swift 命令行。
  • LoRA/QLoRA 的落地做法(rank、target_modules、合并权重)。
  • 数据格式与 chat 模板的关键坑位(Qwen 的 chat_template)。

说明

  • 代码示例默认以 Qwen/Qwen2.5-7B(-Instruct) 为例。如果你已有 Qwen3 的 HuggingFace 权重,直接把 MODEL_ID 换成对应 id 即可。
  • GPU 建议:SFT/QLoRA 单卡 24–48GB 足够(batch 小一点 + 累积梯度);PPO/DPO 视模型大小和数据量,一般多卡更舒适。
  • 环境建议:transformers>=4.41, trl>=0.8, peft>=0.11, bitsandbytes>=0.43, datasets, accelerate, deepspeed(可选)。

一、训练全流程总览

  • 预训练(Pretraining)
  • 目标:大规模无监督自回归(next-token prediction),学习通用语言能力。
  • 数据:网页、代码、书籍,多语种清洗、去重、毒性过滤。
  • 继续预训练(Continued/Domain Adaptive Pretraining)
  • 用你的领域语料(金融/法务/医疗/企业内部知识)对基础模型再训练数万步,提升领域覆盖与术语分布。
  • 指令微调(SFT)
  • 用指令-回答/对话样本教模型“按指令办事”。常配合 LoRA/QLoRA 降显存。
  • 偏好对齐(Alignment)
  • DPO/ORPO/KTO/SimPO:用偏好对(preferred vs rejected)做直接对比优化。
  • RLHF(PPO/RLAIF/GRPO):用奖励模型/规则/AI 反馈作为奖励信号做策略优化。
  • 安全与工具能力
  • 安全基座(拒答/去有害)、工具使用(函数调用)、检索增强(RAG)。
  • 评测与蒸馏
  • 任务集评测(MMLU、C-Eval、GSM8K、AlignBench 等),蒸馏成小模型部署。

二、环境安装(通用)

# 基础依赖

三、继续预训练(领域自适应 Pretraining)
适合你已有一批纯文本/代码语料,想让基础模型更懂你的领域。

数据准备(举例)

  • data/train.txt 与 data/val.txt:每行一段原始文本(已清洗去重)。

代码(Hugging Face Trainer)

import os, torch

要点

  • 继续预训练用“base”模型(非 Instruct)更合适。
  • 启用 packing(group_texts)能显著提高吞吐。
  • 大模型建议配合 DeepSpeed ZeRO-2/3、多卡和梯度检查点。

四、指令微调 SFT(LoRA/QLoRA)
数据格式(推荐 messages 格式,方便套 chat_template)

  • train.jsonl(每行一个样本):
{"messages":[

代码(TRL + PEFT,QLoRA)

import torch

合并 LoRA(推理部署更方便)

import torch

要点

  • target_modules 对 Qwen/LLaMA 系列常见投影层足够;实际以模型结构为准可做微调。
  • QLoRA 推荐 r=16/32,learning_rate 2e-4~5e-5 视 batch/任务而定。
  • 数据用 messages + chat_template 能避免标签错位、特殊 token 漏标等坑。

五、用 ms-swift 快速上手(SFT / DPO)
提示:不同版本的 ms-swift CLI 参数略有差异,建议先执行 swift -h 或 swift sft -h 查看你本地版本帮助。下面给出常见用法范式(以 2.x 为例)。

安装

pip install -U "ms-swift[llm]" modelscope

SFT(LoRA/QLoRA)

# 假设 data/train.jsonl 是上文 messages 格式

DPO(偏好对齐,使用 prompt/choice 对)

  • 数据 dpo.jsonl(每行):
{"prompt":"请写一段自我介绍","chosen":"我是一个乐观...","rejected":"我是个不靠谱..."}
swift dpo \

合并 LoRA

swift export \

备注

  • ms-swift 还支持 ORPO/KTO/GRPO/SimPO、全参/部分层微调、Deepspeed/FSDP,一行命令即可切换策略。
  • 如果你的 ms-swift 本地帮助与上面不一致,以本地 -h 为准。

六、偏好对齐:DPO(Hugging Face TRL 版)
适合有成对偏好数据(prompt, chosen, rejected),可在 SFT 基础上再优化。

import torch

要点

  • DPO 对 LR 更敏感,建议 5e-6~2e-5。
  • 数据质量很关键:prompt 明确、chosen/rejected 差异清晰。

七、强化学习对齐:PPO(TRL)
PPO 需要一个“奖励函数”。真实场景常用专门的 Reward Model(例如对 helpfulness/harmlessness 的打分)。这里给一个可跑通的演示版,用情感模型(正面=高分)代替。你可以替换为自己的 RM。

import torch, random

要点

  • 真实对齐要用与你任务匹配的 Reward Model(如中文对齐 RM、规则奖励或 RLAIF)。
  • 控制 KL(target_kl)避免模型崩坏;LR、采样温度、奖励量纲都很关键。
  • PPO 显存较吃,建议小 batch + 累积,必要时 LoRA 化 PPO(进阶用法)。

八、评测、部署与常见坑

  • 评测
  • 综合:MMLU(中英)、C-Eval(中文学科)、GSM8K(数学)、BBH、AlignBench(对齐)。
  • 指标:准确率、长度、拒答率(安全)、幻觉率(可人工/自动评测结合)。
  • 部署
  • vLLM 高吞吐推理;支持 LoRA 热插拔、KV Cache、连续批处理。
  • 量化:AWQ/GPTQ(离线),bitsandbytes(在线 8/4bit)。
  • 常见坑
  • Chat 模板:messages → apply_chat_template 必须一致,训练/推理同模板。
  • 标签错位:SFT 时确保只有 assistant 段落有 label,prompt 部分 label 应该是 -100(用模板正确构造可避免)。
  • Max length 截断:训练/生成的 max_length 与模型 rope/rope_scaling 要一致。
  • LoRA 目标层:不同架构名称可能略有不同,先 print(model) 或参考官方配置。
  • 数据清洗:去重、去噪、脱敏;不良样本少量也会严重拖后腿。

九、结尾

  • 你是更偏好用 ms-swift 一键训练,还是 Hugging Face/TRL 写代码流?
  • 你的 GPU 配置(型号/显存/卡数)和大概数据规模是怎样的?我可以按你的资源把 batch、累积、rank、是否 QLoRA 等超参调到更稳妥。
  • 如果你有现成的样本,我可以帮你把数据转换成 messages 或 DPO 所需的 prompt/chosen/rejected 格式,并给出针对你任务的奖励函数设计建议。

大模型算是目前当之无愧最火的一个方向了,算是新时代的风口!有小伙伴觉得,作为新领域、新方向人才需求必然相当大,与之相应的人才缺乏、人才竞争自然也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业呢?是不是就暂时能抵抗35岁中年危机呢?

答案当然是这样,大模型必然是新风口!

那如何学习大模型 ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:

最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习路线完善出来!

在这里插入图片描述

在这个版本当中:

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型路线+学习教程已经给大家整理并打包分享出来, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉优快云大礼包🎁:全网最全《LLM大模型学习资源包》免费分享(安全咨料,放心领取)👈

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源

在这里插入图片描述

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码免费领取

👉优快云大礼包🎁:全网最全《LLM大模型学习资源包》免费分享(安全资料,放心领取)👈

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值