使用Ollama配置本地微调的gguf模型文件

在之前的文章中,我们已经得到了经过我们微调的大语言模型,不管是在本地部署使用或者是用OpenWebUI界面部署在服务器上达到和chatGPT界面类似的效果,使用Ollama部署一定是最好的选择。以下均为在Ubuntu系统(Linux)上的测试。

如果需要在Windows上部署可以查看Ollama的官方文档:

https://github.com/ollama/ollama

一、安装Ollama

Linux安装Ollama命令行:

curl -fsSL https://ollama.com/install.sh | sh

安装不了你可以直接进入网页:https://ollama.com/install.sh,直接看到代码,复制下来创建install.sh放进去用sh install.sh 跑一下应该也行。

尝试跑一个开源模型测试一下是否成功运行,模型会自动下载开源大模型Ollama支持十几个不同参数量常用的开源大语言模型,这一步可以忽略:

ollama run llama3.1

在对话框输入/help查看对话可用指令,输入/bye退出对话模式。

二、准备工作

首先我们要新建一个文件夹创建.modelfile文件并将模型文件也放入其中,两

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值