1、下载ollama
在浏览器地址输入:https://ollama.com/
选择windows版本的下载
2、安装ollama
3、运行ollama
安装完成后,打开命令行工具win +r
在命令行输入:ollama
4、使用ollama下载并部署Deepseed r1
在ollama网站,下载DeepSeek-R1模型
根据本地机器大小选择合适的版本,点击复制按钮
打开命令行工具win +r
,输入ollama run deepseek-r1:7b
等待下载完成安装完成后。
输入问题,回车
表明安装成功。
ollama常用参数
Ollama安装完成之后,有几个常用的系统环境变量参数建议进行设置:
OLLAMA_MODELS
:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C:\Users%username%.ollama\models,MacOS 目录:~/.ollama/models,Linux 目录:/usr/share/ollama/.ollama/models),如果是 Windows 系统建议修改(如:D:\OllamaModels),避免 C 盘空间吃紧
OLLAMA_HOST
:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置成0.0.0.0,从而允许其他网络访问
OLLAMA_PORT
:Ollama 服务监听的默认端口,默认为11434,如果端口有冲突,可以修改设置成其他端口(如:8080等)
OLLAMA_ORIGINS
:HTTP 客户端请求来源,半角逗号分隔列表,若本地使用无严格要求,可以设置成星号,代表不受限制
OLLAMA_KEEP_ALIVE
:大模型加载到内存中后的存活时间,默认为5m即 5 分钟(如:纯数字如 300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活);我们可设置成24h,即模型在内存中保持 24 小时,提高访问速度
OLLAMA_NUM_PARALLEL
:请求处理并发数量,默认为1,即单并发串行处理请求,可根据实际情况进行调整
OLLAMA_MAX_QUEUE
:请求队列长度,默认值为512,可以根据情况设置,超过队列长度请求被抛弃
OLLAMA_DEBUG
:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题
OLLAMA_MAX_LOADED_MODELS
:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中
修改 OLLAMA_MODELS
参数
Linux/macOS
- 临时设置(仅当前终端生效)
复制
export OLLAMA_MODELS="/path/to/your/custom/models"
ollama run llama2 # 测试是否生效
- 永久设置
打开 Shell 配置文件(如 /.bashrc、/.zshrc 或 ~/.profile)。
添加以下行:
export OLLAMA_MODELS="/path/to/your/custom/models"
保存文件并重启终端,或运行 source ~/.bashrc(根据实际配置文件调整)。
Windows
- 临时设置(仅当前命令行生效)
cmd
setx OLLAMA_MODELS "D:\your\custom\models"
关闭当前命令行窗口,重新打开新的窗口生效。
- 永久设置
打开系统环境变量设置:
右键“此电脑” → 属性 → 高级系统设置 → 环境变量。
在“用户变量”或“系统变量”中,点击“新建”:
变量名:OLLAMA_MODELS
变量值:D:\your\custom\models
重启所有 Ollama 相关进程或重启计算机。
Docker 运行 Ollama
若通过 Docker 使用 Ollama,在启动容器时指定环境变量:
docker run -d \
-e OLLAMA_MODELS="/path/in/container" \
-v /host/custom/path:/path/in/container \
-p 11434:11434 \
ollama/ollama
注意事项
- 路径权限:确保自定义路径有读写权限。
- 迁移已有模型:若已下载模型,需手动将原目录(默认 ~/.ollama/models)内容复制到新路径。
- 重启服务:修改后重启 Ollama 服务:
ollama serve # 如果直接运行服务
完成后,新下载的模型会存储到指定路径。