本文记录我如何安装Xtuner微调InternLM大模型的过程,记录报错,记录解决内容,记录过程中遇到不懂的知识点,并解决构建自己的webUI界面的Ricky小助手。
友情提示
微调内容需要使用 30% A100 才能完成(24G的显存)。 本次微调内容包括了以下两个部分:
- SFT 数据的获取
- 使用 InternLM2.5-7B-Chat 模型微调
看完后将会收获:
- 针对业务场景(如特殊自我认知的机器人)的微调能力
- 一个属于自己的语言聊天机器人
环境配置与数据准备
下面,将记录我如何安装 XTuner的过程。 推荐使用 Python-3.10 的 conda 虚拟环境安装 XTuner。
步骤 0. 使用 conda 先构建一个 Python-3.10 的虚拟环境
cd ~
#git clone 本repo
git clone https://github.com/InternLM/Tutorial.git -b camp4
mkdir -p /root/finetune && cd /root/finetune
conda create -n xtuner-env python=3.10 -y
conda activate xtuner-env
步骤 1. 安装 XTuner
按照元教程,我这里安装失败,因为我这没有doc1和L1的文件夹,搜索自己的解决安装Xtuner的方法——直接安装InternLM的Xtuner的源码
git clone https://github.com/InternLM/xtuner.git
cd xtuner
pip install -e .
验证安装
为了验证 XTuner 是否安装正确,我们将使用命令打印配置文件。
打印配置文件: 在命令行中使用 xtuner list-cfg
验证是否能打印配置文件列表。
出现一系列的模型,则是安装成功。
修改提供的数据
步骤 0. 创建一个新的文件夹用于存储微调数据
mkdir -p /root/finetune/data && cd /root/finetune/data
cp -r /root/Tutorial/data/assistant_Tuner.jsonl /root/finetune/data
步骤 1. 创建修改脚本
我们写一个脚本生成修改我们需要的微调训练数据,在当前目录下创建一个 change_script.py
文件,内容如下:
创建 change_script.py
文件
touch /root/finetune/data/change_script.py
打开该change_script.py
文件后将下面的内容复制进去。
这个函数功能:修改数据集为Xtuner格式,输入有2个关键参数,1是input_file是你需要准备的微调的数据局的json格式,,输出 output_file是经过change_script.py 函数后,生成的可以用于Xtuner格式的微调的函数,
import json
import argparse
from tqdm import tqdm
def process_line(line, old_text, new_text):
# 解析 JSON 行
data = json.loads(line)
# 递归函数来处理嵌套的字典和列表
def replace_text(obj):
if isinstance(obj, dict):
return {
k: replace_text(v) for k, v in obj.items()}
elif isinstance(obj, list):
return [replace_text(item) for item in obj]
elif isinstance(obj, str):
return obj.replace(old_text, new_text)
else:
return obj
# 处理整个 JSON 对象
processed_data = replace_text(data)
# 将处理后的对象转回 JSON 字符串
return json.dumps(processed_data, ensure_ascii=False)
def main(input_file, output_file, old_text, new_text):
with<