ollama运行量化模型

今天要部署一个qwen2.5模型,但是7b的模型还是太慢了,所以想部署一个4位量化,但是在网上搜索几乎都是用llama.cpp转换,搞makefile文件,然后导入的。

但是我在想ollama这么方便,应该有现成的才对。果然一搜,真的有。

首先打开ollama官网,搜索自己想要的模型

点击选择的按钮,有一个view all

选择view all里面就是所有有关的模型了,包括各种版本的量化、微调模型。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值