服务器通过 ollama 运行deepseek r1

1、服务器环境简介

  • 56核 CPU
  • 64G 内存
  • 无显卡
  • 已安装 Ollama

2、下载模型与配置

正常可以通过 ollama pull 或 ollama run 命令直接下载,但通常会遇到连接超时、找不到网址等总理。因此,可以使用国内的模型站进行下载,在这里使用魔塔查找模型。

在这里,我下载了

DeepSeek-R1-Distill-Qwen-1.5B-GGUF

DeepSeek-R1-Distill-Qwen-7B-GGUF

两个版本

下载后,分别创建两个 txt 文件:

deepseek-r1-1.5B.txt,具体参数可依据使用情况修改

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf
PARAMETER temperature 0.7
PARAMETER top_p 0.95
PARAMETER top_k 40
PARAMETER repeat_penalty 1.1
PARAMETER min_p 0.05
PARAMETER num_ctx 8096
PARAMETER num_thread 4
PARAMETER stop "<|begin of sentence|>"
PARAMETER stop "<|end of sentence|>"
PARAMETER stop "<|User|>"
PARAMETER stop "<|Assistant|>"

 deepseek-r1-7B.txt,与1.5B 类似

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf
PARAMETER temperature 0.7
PARAMETER top_p 0.95
PARAMETER top_k 40
PARAMETER repeat_penalty 1.1
PARAMETER min_p 0.05
PARAMETER num_ctx 8096
PARAMETER num_thread 4
PARAMETER stop "<|begin of sentence|>"
PARAMETER stop "<|end of sentence|>"
PARAMETER stop "<|User|>"
PARAMETER stop "<|Assistant|>"

3、运行命令导入至 ollama

ollama create deepseek-r1:1.5B -f ./deepseek-r1-1.5B.txt

ollama create deepseek-r1:7B -f ./deepseek-r1-7B.txt

4、运行模型

ollama run deepseek-r1:7B

5、运行测试结论

1.5B:能够显示思考过程,问答效果不佳,胡编乱造内容较多,运行较流畅。

7B:能够显示思考过程,问答效果略好,有胡编乱选内容,运行响应很慢。

总结,这两个模型在这种配置的服务器上均可运行,但如果想得到较好的体验,这个配置远远不够。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值