基于百度千帆大模型平台采用自构造数据集初步微调ERNIE-Speed-8K模型

一、模型背景

        为稳步推进我们的模型选取及调优工作,同时为了使自构造数据集能够有初步结果,我们观察并了解到了百度最近新发行的ERNIE-Speed-8K模型。官方介绍:ERNIE Speed是百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。因此,我们在研究阶段中尝试调优与使用该模型,现将过程与目前的结果展示如下。

二、数据集整合

        在模型训练之前,首先我们需要整合好我们自己的数据集,并将其构造成我们所需要的格式。我们首先确立,以SFT监督微调的方式尝试训练模型,因为LoRA在SFT最具代表性,且能够用于大语言模型的低阶适应。它能够通过冻结预训练好的模型权重参数,然后在每个Transformer块里注入可训练的层,从而实现减少需要训练的计算量。在千帆平台提供的帮助文档中,明确了LoRA的数据集格式,因此我们利用我之前发布的数据集转换的python代码先对我们的数据集进行了预处理,使其变成我们所能够加以使用的jsonl格式。基于python的.txt与.ann数据对集合转json/jsonl数据集-优快云博客文章浏览阅读178次。文本文件与标注文件数据对集合转json格式文件代码

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值