LLaMA-Factory 单卡3080*2 deepspeed zero3 微调Qwen2.5-7B-Instruct

环境安装

git clone https://gitcode.com/gh_mirrors/ll/LLaMA-Factory.git

cd LLaMA-Factory

pip install -e ".[torch,metrics]"

pip install deepspeed

下载模型

pip install modelscope
modelscope download --model Qwen/Qwen2.5-7B-Instruct  --local_dir /root/autodl-tmp/models/Qwen/Qwen2.5-7B-Instruct

微调

llamafactory-cli train \
    --stage sft \
    --do_train True \
    --model_name_or_path /root/autodl-tmp/models/Qwen/Qwen2.5-7B-Instruct \
    --preprocessing_num_workers 16 \
    --finetuning_type lora \
    --template qwen \
    --flash_attn auto \
    --dataset_dir data \
    --dataset self_SFT,alpaca_zh_demo \
    --cutoff_len 1024 \
    --learning_rate 0.0001 \
    --num_train_epochs 5.0 \
    --max_samples 1000 \
    --per_device_train_batch_size 4 \
    --gradient_accumulation_steps 8 \
    --lr_scheduler_type cosine \
    --max_grad_norm 1.0 \
    --logging_steps 5 \
    --save_steps 100 \
    -
### 对 LLaMA-FactoryQwen 2.5 版本模型进行视觉-语言 (VL) 微调 为了在 LLaMA-Factory 中对 Qwen 2.5 版本模型执行视觉-语言微调,需遵循特定配置和流程。首先确认已下载并设置好基础环境,在 `/mnt/workspace/` 下准备好所需资源[^1]。 #### 准备数据集 对于视觉-语言任务的数据准备至关重要。通常涉及图像特征提取以及相应的文本描述配对。确保所使用的数据格式兼容于框架需求,并按照指定结构组织文件夹: ```bash dataset/ ├── images/ │ ├── image_001.jpg │ └── ... └── captions.jsonl ``` 其中 `captions.jsonl` 文件每一行为 JSON 格式的字典对象,包含图片 ID 和对应的 caption 字符串。 #### 修改超参数配置 编辑位于 GitHub 上提到的路径中的 Python 脚本部分代码片段来适应 VL 任务特性[^2]: ```python from dataclasses import dataclass, field @dataclass class DataTrainingArguments: dataset_name: str = field( default=None, metadata={"help": "The name of the dataset to use."} ) image_column: Optional[str] = field( default="image_path", metadata={ "help": "The column name of the image paths in the datasets." }, ) text_column: Optional[str] = field( default="caption", metadata={ "help": "The column name of the texts associated with images." } ) ``` 此修改使得训练过程中能够正确读取图像路径及其关联的文字说明列名。 #### 执行微调过程 完成上述准备工作之后,通过命令行工具启动实际的微调操作。具体指令取决于本地安装情况和个人偏好设定;这里提供一个通用模板供参考: ```bash python run_clm.py \ --model_name_or_path /mnt/workspace/models/qwen-2.5-7b-instruct \ --train_file ./dataset/captions.jsonl \ --do_train \ --output_dir /mnt/workspace/output/vision_language_tuned_qwen \ --per_device_train_batch_size 4 \ --gradient_accumulation_steps 8 \ --learning_rate 5e-5 \ --num_train_epochs 3 \ --save_strategy epoch \ --logging_dir /mnt/workspace/logs \ --logging_steps 10 ``` 以上命令假设已经具备适当规模 GPU 支持下的计算能力以处理此类多模态学习任务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值