MFTCoder:面向代码任务的多任务微调框架

MFTCoder:面向代码任务的多任务微调框架

MFTCoder High Accuracy and efficiency multi-task fine-tuning framework for Code LLMs MFTCoder 项目地址: https://gitcode.com/gh_mirrors/mf/MFTCoder

1. 项目基础介绍

MFTCoder 是由 CodeFuse 开发的一个开源项目,旨在为大型语言模型(尤其是针对代码任务的语言模型)提供精确和高效的多任务微调(Multi-task Fine-tuning, MFT)解决方案。该项目使用 Python 编程语言,结合了先进的深度学习技术,为大型语言模型的多任务训练提供支持。

2. 项目的核心功能

  • 多任务训练:MFTCoder 支持模型在多个任务上进行训练,同时保持任务之间的平衡。模型甚至能够泛化到新的、未见过的任务上。
  • 多模型支持:项目集成了多种最先进的开源模型,如 gpt-neox、llama、llama-2、baichuan、Qwen、ChatGLM2 等。
  • 多框架支持:MFTCoder 提供了对 Accelerate(配合 Deepspeed 和 FSDP)和 ATorch 的支持。
  • 高效微调:支持 LoRA、QLoRA 以及全参数训练,使得在最小资源下微调大型模型成为可能,同时训练速度满足几乎所有微调场景的需求。

3. 项目最近更新的功能

  • 多任务微调的收敛平衡器(CoBa)方法:在原始 pefts 模块中更新了 selfpaced 方法,以新的收敛平衡(CoBa)方法替代,实现了多任务微调中的平衡收敛。
  • 支持新的模型和优化器:增加了对 QLoRA + DeepSpeed Zero3 和 QLoRA + FSDP 的支持,允许训练非常大的模型。同时支持了新模型,如 Qwen2、Qwen2-MoE、Starcoder2、Gemma 等。
  • 性能提升和模型发布:发布了多个性能提升的代码 LLM 模型,如 CodeFuse-DeepSeek-33B、CodeFuse-CodeLlama-34B、CodeFuse-StarCoder2-15B 等,并在 HumanEval 基准测试中取得了优异的成绩。

MFTCoder 项目的每一次更新都旨在提升模型的性能和微调的效率,为开源社区提供了强大的工具来推进大型语言模型在代码任务上的应用。

MFTCoder High Accuracy and efficiency multi-task fine-tuning framework for Code LLMs MFTCoder 项目地址: https://gitcode.com/gh_mirrors/mf/MFTCoder

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

石葵铎Eva

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值