微调原理简介
微调的作用是让预训练的大模型能够适应下游任务。
这里仅作简单介绍,相关的算法如SFT, DPO等不是本文重点。
本文在做微调的时候主要用的是LoRA以及QLoRA,这一系列算法基于一个观察:模型全参数可以用一个低秩的矩阵替换,好处是使用的资源显著减少。
LoRA
QLoRA
Xtuner微调实践
Xtuner简介
XTuner 文档链接:XTuner-doc-cn
环境配置与数据准备
首先使用 conda 先构建一个 Python-3.10 的虚拟环境。
然后安装 XTuner。
为了验证 XTuner 是否安装正确,我们将使用命令打印配置文件。
安装成功!
修改提供的数据
创建一个新的文件夹用于存储微调数据,然后将准备好的微调数据集copy到文件夹下。
创建修改脚本,内容如下:<