Task 1 Chat-嬛嬛
第一个任务是在讯飞的MaaS平台上通过甄嬛传的对话数据微调Qwen2.5。首先在讯飞星辰平台上注册一个账号,点击左上角创建模型:
在这里配置好基础的模型信息,模型选择Qwen_v2.5_7b_Instruct。
大模型微调数据格式
在数据集的配置中上传教程中的数据集,数据集的默认格式是LLaMa的AIpaca,偏重指令微调,根据数据集可知其数据格式如下:
{
"instruction": "没关系,我喜欢和姐姐们在一起。",
"input": "",
"output": "槿汐,送两位小主出去。"
},
分别对应指令、输入(选填)和输出。
另外一种ShareGPT,偏重多轮对话,参考大模型微调——训练数据集的格式Alpaca 和 ShareGPT的例子:
{
"conversations": [
{
"role": "user",
"content": "What is the capital of France?"
},
{
"role": "assistant",
"content": "The capital of France is Paris."
},
{
"role": "user",
"content": "Can you tell me more about Paris?"
},
{
"role": "assistant",
"content": "Paris is the largest city and the capital of France. It is known for its art, culture, and history..."
}
]
}
配置好模型、数据、训练参数之后提交训练,等待10分钟左右。之后创建应用,记得领取10万条token并将训练好的模型发布服务注册到创建的应用当中。
最后就可以进行对话了,从截图当中能看出来微调已经产生了效果。
最后用教程总结一下:
定制一个自己的专属大模型最方便的步骤 ≈ 指定数据集 + 开源大模型 + 微调平台(如讯飞星辰Maas)
Task 2 微调垂直领域大模型
参考教程当中的微调思路如下: