【Datawhale AI 冬令营】如何动手微调出自己的大模型

总体思路

微调大模型主要以开源的通用大模型为基础,喂给模型自己准备的数据,将通用的大模型往自己想要的方向引导,变成更偏向某一领域的大模型。其中最主要的是数据,你希望大模型变成一个什么的大模型,就需要给他喂相应的数据。然后就是算力,微调的代码比较简单,可以自己搭一个环境,写几行模型训练的代码就能训练,也可以找一个模型训练平台,0代码进行大模型微调。比如讯飞星辰平台。

实操案例

以医疗方面的对话大模型为例,演示一下如何微调一个能够回答医疗方面问题的大模型。

数据集构造

收集数据

因为是医疗相关的大模型,需要有医疗相关的数据,比如患者与医生的对话数据集,通过网上搜索,在github上搜索到一份中文医疗对话数据集。
在这里插入图片描述
一共有内科,男科,妇科,肿瘤科,儿科和外科的数据,已经涵盖了大部分常见医疗问题。

数据构造

微调大模型,要求的数据格式分为两种,AlpacaShareGPT,具体如下,其实是JSON文件格式,只是必须按照相应的字段名称进行存储。
在这里插入图片描述

在这里插入图片描述
原始数据如下:
在这里插入图片描述
需要将ask字段对应的内容变成Alpaca格式中的instruction字段中,把answer的内容变到output字段中。处理代码可以参考下面代码
在这里插入图片描述
处理完的数据长下面这样:
在这里插入图片描述

模型微调

这里采用讯飞星辰平台进行模型微调训练

选择模型

在这里插入图片描述
输入模型名称,因为是医疗对话模型,回答患者问题,因此选择文本对话模型,在选择基础模型,这个根据问题的复杂度,越复杂需要选择的模型就越大,简单的可以选择小模型,减少训练时长。
在这里插入图片描述

选择数据集

点击创建数据集,创建自己自定义的数据集。
在这里插入图片描述
将自己构造的数据集拖到数据导入框中,完成确认即可。
在这里插入图片描述

参数配置

大部分参数可以不改变,因为我的数据集8万条,数据量还可以,设置训练次数3次就行,也可以默认参数即可,后续根据模型的表现进行参数调整,提高模型效果。
在这里插入图片描述

开始训练

在这里插入图片描述

在这里插入图片描述
耐心等待模型训练结束。

模型使用

训练完成后,可以将模型发布成一个服务,进行接口调用使用。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值