选择模型版本
参数规模 | 硬件要求(最低) | 适用场景 |
---|---|---|
1.5B/7B | 8GB内存,无专用GPU | 文本处理、简单问答 |
14B | 16GB内存+12GB显存 | 代码生成、逻辑推理 |
32B/70B | 24GB显存+32GB内存 | 企业级复杂任务 |
执行命令:ollama run deepseek-r1:14b(以14B为例)。
配置环境变量
-
新增用户变量:
-
OLLAMA_HOST=0.0.0.0
-
OLLAMA_ORIGINS=*
-
重启Ollama服务使配置生效。
-
可视化客户端
-
推荐工具:Cherry Studio或Chatbox(支持离线使用)。
-
配置路径:客户端设置中填入http://localhost:11434,选择本地模型。
有偿工具包下载地址(有售后):www.mix688.com/118.html