在Ubuntu上用Llama Factory命令行微调Qwen2.5的简单过程

半年多之前写过一个教程:在Windows上用Llama Factory微调Llama 3的基本操作_llama-factory windows-优快云博客

如果用命令行做的话,前面的步骤可以参考上面这个博客。安装好环境后, 用自我认知数据集微调Lora模块:data/identity.json,里面的格式也很好理解:

{

"instruction": "你是谁?",

"input": "",

"output": "您好,我是 { {name}},一个由 { {author}} 发明的人工智能助手。我可以回答各种问题,提供实用的建议和帮助,帮助用户完成各种任务。"

},

可以直接用VS Code将上面的name和author替换,另存为一个文件,并且在data/dataset_info.json增加这个,类似于我这里(另存的文件名为identity_tpri.json):

 "identity_tpri": {

"file_name": "identity_tpri.json"

},

将文件examples/train_qlora/llama3_lora_sft_awq.

### 使用 LLama-FactoryQwen 模型进行微调 #### 准备环境 为了使用 LLama-Factory 进行微调,需先安装必要的依赖项并配置好运行环境。确保已准备好支持 GPU 的计算资源,并设置 `CUDA_VISIBLE_DEVICES` 来指定使用的显卡设备。 ```bash export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 pip install -r requirements.txt ``` #### 配置训练参数文件 创建或编辑 YAML 文件以定义具体的训练参数。此文件应位于项目目录下的适当位置,例如 `/examples/train_lora/qwen2vl_lora_sft_my20241112.yaml`。该文件包含了关于数据集路径、批次大小、学习率等重要超参的信息[^2]。 #### 开始训练过程 利用命令行接口启动训练任务: ```bash llamafactory-cli train /path/to/your/project/examples/train_lora/qwen2vl_lora_sft_my20241112.yaml ``` 上述指令会依据给定的配置文件执行 LoRA 方式的有监督微调操作。 #### 测试调整后的模型性能 完成一轮或多轮次迭代之后保存下来的 checkpoint 即为经过特定领域适配的新版本 Qwen 模型。此时可以通过加载这些权重来进行推理实验验证效果改进情况。具体来说,在 GUI 或 CLI 中选择对应 checkpoint 并上传待分类图像样本观察输出结果是否符合预期目标类别[^3]。 #### 实现更精准的结果映射 考虑到原有标签体系差异带来的精度损失问题,通过针对性地收集标注数据并对齐至所需语义空间可以有效提升最终决策层面上的一致性和可靠性。这一步骤旨在减少因间接转换而导致的信息失真现象,从而提高整体系统的鲁棒性与泛化能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值