LLaMA-Factory最新版本发布:GPT-OSS与Intern-S1-mini模型微调全支持

LLaMA-Factory最新版本发布:GPT-OSS与Intern-S1-mini模型微调全支持

【免费下载链接】LLaMA-Factory 易于使用的LLM微调框架(LLaMA, BLOOM, Mistral, 百川, Qwen, ChatGLM)。 【免费下载链接】LLaMA-Factory 项目地址: https://gitcode.com/GitHub_Trending/ll/LLaMA-Factory

LLaMA-Factory作为一款易于使用的大语言模型(LLM)微调框架,近期迎来重大更新,正式宣布对GPT-OSS和Intern-S1-mini两款热门模型提供全面微调支持。这一更新将进一步丰富开发者的工具箱,助力打造更贴合特定场景需求的AI应用。

LLaMA Factory

核心更新亮点

本次更新重点聚焦于扩展模型支持范围,新增对GPT-OSS和Intern-S1-mini的完整微调能力。根据更新日志显示,GPT-OSS模型的微调支持于2025年8月6日通过PR #8826实现,而Intern-S1-mini的支持则在2025年8月20日通过PR #8976完成。这两款模型的加入,使得LLaMA-Factory支持的模型家族更加壮大,能够满足不同算力条件和应用场景的需求。

新增模型特性解析

GPT-OSS

GPT-OSS(Open Source Software)是OpenAI推出的开源大语言模型,提供20B和120B两种参数规模。该模型在通用语言理解、生成任务上表现出色,同时具备良好的可扩展性。在LLaMA-Factory中,GPT-OSS使用"gpt"模板进行微调,开发者可根据实际需求选择合适的参数规模和微调策略。

Intern-S1-mini

Intern-S1-mini是由上海人工智能实验室推出的轻量级大语言模型,参数量为8B。该模型在保持良好性能的同时,具有计算效率高、部署门槛低的特点,非常适合资源受限的场景或边缘设备部署。在LLaMA-Factory中,Intern-S1-mini使用"intern_s1"模板进行微调。

快速上手:模型微调步骤

环境准备

首先,确保已正确安装LLaMA-Factory。如果您是首次使用,可以通过以下命令克隆仓库并安装依赖:

git clone https://gitcode.com/GitHub_Trending/ll/LLaMA-Factory
cd LLaMA-Factory
pip install -r requirements.txt

配置文件修改

LLaMA-Factory采用配置文件驱动的方式进行微调。以下是一个基于LoRA(Low-Rank Adaptation)的微调配置示例,您可以根据需要修改examples/train_lora/llama3_lora_sft.yaml文件,将模型名称修改为您想要微调的目标模型:

### model
model_name_or_path: openai/GPT-OSS-20B  # 或 internlm/Intern-S1-mini
trust_remote_code: true

### method
stage: sft
do_train: true
finetuning_type: lora
lora_rank: 8
lora_target: all

### dataset
dataset: alpaca_zh_demo
template: gpt  # GPT-OSS使用"gpt"模板,Intern-S1-mini使用"intern_s1"模板
cutoff_len: 2048
max_samples: 1000

### output
output_dir: saves/gpt-oss-20b/lora/sft
logging_steps: 10
save_steps: 500
plot_loss: true

### train
per_device_train_batch_size: 1
gradient_accumulation_steps: 8
learning_rate: 1.0e-4
num_train_epochs: 3.0
lr_scheduler_type: cosine
warmup_ratio: 0.1
bf16: true

启动微调

配置文件准备就绪后,使用以下命令启动微调过程:

python src/train.py --config examples/train_lora/llama3_lora_sft.yaml

LLaMA-Factory提供了灵活的微调方法选择,包括全参数微调(full)、冻结微调(freeze)、LoRA和OFT(Optimized Finetuning)等多种方式,您可以根据模型大小和硬件条件选择合适的微调策略。

技术细节:模型支持实现

LLaMA-Factory通过src/llamafactory/model/loader.py中的load_model函数加载和初始化模型,通过src/llamafactory/model/adapter.py中的init_adapter函数配置不同的微调方法。这些模块为新增模型提供了统一的接入接口,确保了框架的可扩展性。

此外,LLaMA-Factory维护了一个支持的模型列表,定义在src/llamafactory/extras/constants.py文件中。通过register_model_group函数注册新模型,包括模型名称、下载地址和默认模板等信息,使得框架能够正确识别和处理不同的模型。

应用场景与最佳实践

GPT-OSS应用场景

  1. 企业级智能客服:利用GPT-OSS的强大语言理解能力,构建高效、智能的客户服务系统。
  2. 内容创作辅助:帮助用户生成高质量的文章、报告、营销文案等。
  3. 复杂任务处理:如数据分析、代码生成、逻辑推理等需要深度思考的任务。

Intern-S1-mini应用场景

  1. 移动设备端AI助手:在手机、平板等移动设备上提供本地化的AI服务。
  2. 边缘计算节点:在工业物联网、智能家居等场景中部署轻量级AI能力。
  3. 教育资源受限地区:在计算资源有限的环境中提供高质量的AI教育工具。

最佳实践建议

  1. 数据质量:微调效果很大程度上取决于训练数据的质量。确保数据标注准确、无噪声。
  2. 参数调优:根据模型大小和数据规模调整学习率、 batch size等超参数。一般来说, smaller models require smaller learning rates.
  3. 增量微调:对于大型模型,可以考虑采用增量微调策略,逐步调整模型参数。
  4. 评估验证:微调过程中定期评估模型性能,及时发现问题并调整策略。

总结与展望

LLaMA-Factory对GPT-OSS和Intern-S1-mini模型的支持,进一步巩固了其作为全方位LLM微调框架的地位。无论是追求极致性能的研究人员,还是需要在资源受限环境中部署AI能力的开发者,都能从这一更新中受益。

未来,LLaMA-Factory团队将继续跟进最新的模型发展,不断扩展支持的模型范围,并持续优化微调算法和用户体验。我们期待看到社区基于这些新支持的模型开发出更多创新应用。

如果您在使用过程中遇到任何问题,或有新的功能需求,欢迎通过项目的GitHub Issues或社区渠道与开发团队交流。让我们共同推动LLM技术的普及和应用创新!

【免费下载链接】LLaMA-Factory 易于使用的LLM微调框架(LLaMA, BLOOM, Mistral, 百川, Qwen, ChatGLM)。 【免费下载链接】LLaMA-Factory 项目地址: https://gitcode.com/GitHub_Trending/ll/LLaMA-Factory

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值