LLaMA-Factory微调加离线部署用ollama本地运行

运用魔塔社区的免费gpu和内网穿透工具(NATAPP-内网穿透 基于ngrok的国内高速内网映射工具

1、Github下载LLaMA-Factory(hiyouga/LLaMA-Factory: Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)

上传到实例中解压:我是用的是rar格式的压缩包,所以需要下载rar解压工具

sudo apt-get update
sudo apt-get install unrar
unrar x your_file.rar

解压完成后,cd进入LLaMA-Factory中,输入

pip install -e ".[torch,metrics]"

下载完成后:输入export USE_MODELSCOPE_HUB=1 && llamafactory-cli webui

2、进入

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值