本地部署llama-factory

官网教程:https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md
1.打开git bush命令行,输入:git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git"
2.打开命令行,创建虚拟环境python -m venv llamavenv
3.激活虚拟环境,进入到scripts文件,输入activate,按下回车;
4.进入文件夹cd LLaMA-Factory,安装依赖:pip install -e ".[torch,metrics]"
5.安装 BitsAndBytes,在命令行输入pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.41.2.post2-py3-none-win_amd64.whl
不出意外就部署完成了
启动llama-factory:llamafactory-cli webui
打开http://localhost:7860/就可以开始下一步研究了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值