llamafactory是什么,能干什么
LLaMA-Factory 是一个易于使用的大规模语言模型(Large Language Model, LLM)微调框架,它支持多种模型,包括 LLaMA、BLOOM、Mistral、Baichuan、Qwen 和 ChatGLM 等。该框架旨在简化大型语言模型的微调过程,提供了一套完整的工具和接口,使得用户能够轻松地对预训练的模型进行定制化的训练和调整,以适应特定的应用场景。
llamafactory支持哪些模型,支持哪些微调技术
-
多种模型:LLaMA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi 等等。
-
集成方法:(增量)预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练和 ORPO 训练。
-
多种精度:32 比特全参数微调、16 比特冻结微调、16 比特 LoRA 微调和基于 AQLM/AWQ/GPTQ/LLM.int8 的 2/4/8 比特 QLoRA 微调。
-
先进算法:GaLore、DoRA、LongLoRA、LLaMA Pro、LoRA+、LoftQ 和 Agent 微调。
-
实用技巧:FlashAttention-2、Unsloth、RoPE scaling、NEFTune 和 rsLoRA。
-
实验监控:LlamaBoard、TensorBoard、Wandb、MLflow 等等。
-
极速推理:基于 vLLM 的 OpenAI 风格 API、浏览器界面和命令行接口
部分支持的模型:
| 模型名 |
模型大小 |
默认模块 |
Template |
| 7B/13B |
W_pack |
baichuan2 |
|
| 560M/1.1B/1.7B/3B/7.1B/176B |
query_key_value |
- |
|
| 560M/1.1B/1.7B/3B/7.1B/176B |
query_key_value |
- |
|

LLaMA-Factory是一个简化语言模型微调的工具,支持多种预训练模型如LLaMA、BLOOM等,提供多种微调技术、精度选项和算法,以及数据加载、评估和量化功能。
最低0.47元/天 解锁文章
1113

被折叠的 条评论
为什么被折叠?



