本地量化模型管理器ollama

问题

想要在本地安装LLM量化模型,我主要是想了解一下LLM的私有化部署,这个ollama比较适合,在本地使用量化后的压缩模型。在本地安装好量化压缩模型,这样就可以在本地简单调用本地模型,本地体验体验了。

安装ollama

打开ollama官网https://ollama.com/,下载安装ollama客户端。
下载安装ollama

下载安装运行deepseek-r1量化版本14b

运行ollama

可以使用命令行或图形方式运行ollama服务端,命令行如下:

ollama serve

如果是图形化界面话,直接打开ollama应用程序即可。

一键下载安装运行r1量化版本14b

ollama run deepseek-r1:14b

测试

输入如下问题:

帮我制定一个2天2晚的岳阳旅游攻略

然后,它生成的回答如下:
回答的问题

总结

感觉本地r1量化版本14b感觉还行。我为什么选择14b,而不是其他版本。这与我的笔记本的内存大小有关,这台m1 pro的内存是16G,而查询了ollama上面r1的各个版本需要的加载的模型大小,14b是这台笔记本能运行最大的r1量化模型了。如下图:
量化R1需要内存大小
14b大小是9GB多,这台m1 pro内存16G,还是能运行14b的。但是32b就不太行了,32b大小是20GB,远超16G了。
这种量化模型,对开发调试,应用集成还是挺方便的。能开源出来我们用是真的良心。

参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值