llama-factory+ollama【qwen2.5-7b模型使用甄嬛语录可视化微调案例】

qwen2.5-7b模型使用甄嬛语录微调案例

python虚拟环境 conda安装

前人栽树,后人乘凉,参考大佬博客安装,很是详细,链接如下:https://blog.youkuaiyun.com/wh0605/article/details/142979657

llama-factory安装

在网上找到的一些教程里面,总会出一些莫名的版本兼容错误,经过一番摸索,搞了出来,特此记录一下:

  1. python虚拟环境版本为3.12 ,注意,不可使用小于3.10或大于3.12的版本,有很多包的兼容性不行;
  2. 安装CUDA,从NVIDIA官网下载并安装适合显卡的CUDA版本nvidia-smi
    这里我下载的是12.8版本的,选择适合自己显卡驱动版本的;
    安装完毕后,cmd输入nvcc -V查看是否安装成功。
  3. 下载llama-factory,网页访问https://github.com/hiyouga/LLaMA-Factory; 或者用git命令下载
  4. 在第一步中创建了虚拟环境,现在解压llama-factory的压缩包,进入根目录,打开cmd,输入activate XXX启动虚拟环境;
  5. 在cmd中输入pip install -r requirements.txt安装必要的环境,如果遇到错误,需要切换pip源为清华或者阿里源;
  6. 如果上述操作无法解决问题并且仍然报错,考虑没有安装ffmpeg库,从github上下载并使用pip安装,并配置好环境变量;
  7. cmd中输入llamafactory-cli webui,如果提示llamafactory-cli不是内部或者外部的命令,则输入pip install -e .[metrics]重新安装一遍;
  8. 注意,还需要安装环境中的pytorch,否则启动会报错
  9. 在运行llama-factory之前,我们需要确认cuda及环境是否安装完毕。
  10. 查看输出内容是否有报错,无报错cuda即为可用
	import torch
		print(f'torch的版本是:{torch.__version__}')
		print(f'torch是否能使用cuda:{torch.cuda.is_available()}')

开始训练

  1. 启动llama-factory,cmd中输入llamafactory-cli webui,等待默认浏览器自动打开或者手动在网页中输入http://localhost:7860/,看到网页打开即为完成
    在这里插入图片描述

  2. 下载模型文档,这里我使用的是python代码下载的qwen2.5-7b的,代码如下

import torch
from modelscope import snapshot_download
import os
model_dir = snapshot_download('qwen/Qwen2.5-7B-Instruct', cache_dir='./', revision='master')

其中注意下载的文件地址, 后面你需要用上

  1. 选择下载的模型名称及模型在本地的路径
    在这里插入图片描述

  2. 准备好训练数据集,放入llama-factory根目录中的data文件夹中,并且修改其中的dataset_info.json文件
    在这里插入图片描述

  3. 选中你的数据集,然后点击开始训练,等待训练完成即可。
    在这里插入图片描述

  4. 测试模型训练结果,检查点路径中选择杠训练完成的模型,点击下方的chat标签
    在这里插入图片描述

  5. 点击加载模型,等模型加载完成后进行对话即可验证训练效果,若训练效果不理想,可以尝试改变训练参数重新训练。
    在这里插入图片描述

模型导出

  1. 导出模型,放入ollama中,在点击export,设置到处模型位置,点击开始导出,等待导出完成,注意预留足够大的内存空间
    在这里插入图片描述
  2. 导出完成后,进入导出的文件夹中,在有makefile的根目录打开cmd窗口,输入ollama create chat-huanhuan -f ModelFile即可将模型导入ollama中,此处需要有足够大的空间。
  3. 创建完成后,输入ollama list 即可查看刚刚创建的模型,ollama run chat-huanhuan:latest即可运行模型,进行对话。
    在这里插入图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值