使用LLaMA Factory微调导出模型,并用ollama运行,用open webui使用该模型

本篇记录学习使用llama factory微调模型的过程,使用ollama运行微调好的模型,使用open webui前端调用ollama的模型;

测试机信息:

系统:Ubuntu 24.04.2 LTS(桌面版)

cpu:i9-14900KF 

内存:128G

显卡:RTX 4090 x 2

LLaMA Factory

安装llama factory

llama factory的git地址:LLaMA-Factory/README_zh.md at main · hiyouga/LLaMA-Factory · GitHub

使用git下载,使用python安装,所以要先安装git和python;(系统安装的时候已经装了Python 3.12.3了)

先建立个python的虚拟环境:python3 -m venv llama-pyenv

会在当前目录下建立一个llama-pyenv的文件夹,激活虚拟环境:source ./llama-pyenv/bin/activate

然后根据官网说明,执行安装命令:

从git下载llama-facotry,并使用pip安装;

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

去魔搭社区下载模型需要安装:pip install modelscope (git网站:modelscope/README_zh.md at master · modelscope/modelscope · GitHub

使用量化还需要安装:pip install bitsandbytes

进入llama-facotry目录(使相对路径在该文件夹下),cd LLaMA-Factory/

打开微调页面,执行:llamafactory-cli webui,至此就安装好了;

下载模型

模型库:模型库首页 · 魔搭社区

找到你需要的模型,例如DeepSeek-r1 14b这个:

点开,复制模型名: 

使用命令下载:modelscope download --model

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值