LLMs之Llama-3:基于Colab平台(免费T4-GPU)利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3-8b-Instruct-bnb-4bit模型采用alpaca数据集【instruction-input-output】实现CLI方式/GUI傻瓜可视化方式,进配置微调→参数行LoRA指令微调→模型推理测试→CLI方式合并权重
目录
# 1.1、克隆 LLaMA-Factory 仓库并安装必要的 Python 包,包括 unsloth、xformers 和 bitsandbytes。
# 1.2、检查 GPU 环境,确保可以使用 Colab 的 Tesla T4 GPU。
# 2、更新身份数据集:【instruction-input-output】
# T2、通过命令行微调模型:It takes ~30min for training.