官网教程:https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md
1.打开git bush命令行,输入:git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git"
2.打开命令行,创建虚拟环境python -m venv llamavenv
3.激活虚拟环境,进入到scripts文件,输入activate,按下回车;
4.进入文件夹cd LLaMA-Factory
,安装依赖:pip install -e ".[torch,metrics]"
5.安装 BitsAndBytes,在命令行输入pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.41.2.post2-py3-none-win_amd64.whl
不出意外就部署完成了
启动llama-factory:llamafactory-cli webui
打开http://localhost:7860/就可以开始下一步研究了。
本地部署llama-factory
最新推荐文章于 2025-04-15 22:54:50 发布