XTuner 大模型单卡低成本微调实战

本文介绍了XTuner在微调LLM模型中的应用,包括指令跟随和增量预训练两种模式,展示了XTuner的功能亮点,如适配多种生态、微调算法和数据处理工具。通过基础和进阶作业,讲述了如何使用XTuner进行微调以及可能出现的问题和解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

XTuner 大模型单卡低成本微调实战

Finetune 简介

LLM的下游应用中,增量预训练指令跟随是经常会用到两种的微调模式。
指令跟随微调
使用场景:让模型学会对话模板,根据人类指令进行对话。
训练数据:高质量的对话、问答数据。

指令跟随微调是为了得到能够实际对话的LLM
介绍指令跟随微调前,需要先了解如何使用LLM进行对话
在实际对话时,通常会有三种角色

  • System:给定一些上下文信息,比如“你是一个安全的AI 助手”
  • User:实际用户,会提出一些问题,比如“世界第一高峰是?”
  • Assistant :根据 User 的输入,结合System的上下文信息,做出回答,比如“珠穆朗玛峰”
    在这里插入图片描述
    在使用对话模型时,通常是不会感知到这三种角色的
    对话模板:对话模板是为了能够让LLM区分出, System、 User和Assistant不同的模型会有不同的模板

在这里插入图片描述
增量预训练微调
使用场景:让基座模型学习到一些新

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值