Datawhale AI 冬令营_第一期学习记录

Task 1 Chat-嬛嬛

第一个任务是在讯飞的MaaS平台上通过甄嬛传的对话数据微调Qwen2.5。首先在讯飞星辰平台上注册一个账号,点击左上角创建模型:
模型创建
在这里配置好基础的模型信息,模型选择Qwen_v2.5_7b_Instruct

大模型微调数据格式

在数据集的配置中上传教程中的数据集,数据集的默认格式是LLaMa的AIpaca,偏重指令微调,根据数据集可知其数据格式如下:

   {
        "instruction": "没关系,我喜欢和姐姐们在一起。",
        "input": "",
        "output": "槿汐,送两位小主出去。"
    },

分别对应指令、输入(选填)和输出。
另外一种ShareGPT,偏重多轮对话,参考大模型微调——训练数据集的格式Alpaca 和 ShareGPT的例子:

{
    "conversations": [
        {
            "role": "user",
            "content": "What is the capital of France?"
        },
        {
            "role": "assistant",
            "content": "The capital of France is Paris."
        },
        {
            "role": "user",
            "content": "Can you tell me more about Paris?"
        },
        {
            "role": "assistant",
            "content": "Paris is the largest city and the capital of France. It is known for its art, culture, and history..."
        }
    ]
}

配置好模型、数据、训练参数之后提交训练,等待10分钟左右。之后创建应用,记得领取10万条token并将训练好的模型发布服务注册到创建的应用当中。

最后就可以进行对话了,从截图当中能看出来微调已经产生了效果。
微调效果
最后用教程总结一下:

定制一个自己的专属大模型最方便的步骤 ≈ 指定数据集 + 开源大模型 + 微调平台(如讯飞星辰Maas)

Task 2 微调垂直领域大模型

参考教程当中的微调思路如下:
微调思路

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值