书生浦语-模型微调
最新推荐文章于 2025-12-02 19:01:55 发布
本文介绍了大语言模型微调的过程,包括LoRA旁路分支微调和使用Xtuner框架进行训练,特别提到微调作业通常需要16个epoch的训练时间。
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
Llama Factory
模型微调
LLama-Factory
LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调














1351

被折叠的 条评论
为什么被折叠?



