一、模型背景
为稳步推进我们的模型选取及调优工作,同时为了使自构造数据集能够有初步结果,我们观察并了解到了百度最近新发行的ERNIE-Speed-8K模型。官方介绍:ERNIE Speed是百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。因此,我们在研究阶段中尝试调优与使用该模型,现将过程与目前的结果展示如下。
二、数据集整合
在模型训练之前,首先我们需要整合好我们自己的数据集,并将其构造成我们所需要的格式。我们首先确立,以SFT监督微调的方式尝试训练模型,因为LoRA在SFT最具代表性,且能够用于大语言模型的低阶适应。它能够通过冻结预训练好的模型权重参数,然后在每个Transformer块里注入可训练的层,从而实现减少需要训练的计算量。在千帆平台提供的帮助文档中,明确了LoRA的数据集格式,因此我们利用我之前发布的数据集转换的python代码先对我们的数据集进行了预处理,使其变成我们所能够加以使用的jsonl格式。基于python的.txt与.ann数据对集合转json/jsonl数据集-优快云博客文章浏览阅读178次。文本文件与标注文件数据对集合转json格式文件代码