ChatBox 调用 Windows10 本地 Ollama 部署的 DeepSeek-R1 大模型


本文通过使用 Ollama 在 Windows 系统上快速部署 DeepSeek-R1,无需复杂的环境配置即可体验智能对话。

环境说明

系统:Windwos 10 专业版
内存:64G
显卡:NVIDIA GeForce RTX 3060 12G独显
防火墙:放行11434端口

1 Ollama是什么

Ollama是一个便于用户在本地部署和管理开源大语言模型的应用框架,极大简化了开源大语言模型的安装和配置细节。即便你不了解大模型相关的任何知识,也可以通过简单的操作,借助Ollama在本地部署当今主流的开源大模型,包含 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2 等(其支持的开源大模型可在library (ollama.com)中查看)。

Ollama 做为一个开源的大语言模型本地化部署与管理工具,支持:

  • 一键式模型下载与版本管理
  • 本地化模型推理服务部署
  • REST API 接口提供
  • 多平台客户端接入支持

2 在Windows上安装并使用Ollama

2.1 下载安装包:

访问ollama的官网https://ollama.com/,点击在页面中心的【Download】,选择Windows操作系统,即可下载Ollama的Windows安装包。我下载的是OllamaSetup.exe
在这里插入图片描述
在这里插入图片描述

2.2 自动安装Ollama:

点击运行刚刚下载好的安装包,直接点击右下角的"Install"即可安装,中途没有任何的选项与提示。注意:Ollama会自动安装在C盘且不能自定义安装目录,要确保C盘下有足够空间。

在这里插入图片描述

2.3 手动安装Ollama:

如果C盘空间不够,或者想指定安装位置,我们可以按下面步骤手动安装:

  • 创建Ollama安装目录  
    在想安装Ollama的路径下创建好文件夹,并把OllamaSetup.exe放在里面。比如我的安装路径是:d:\Ollama
    在这里插入图片描述
  • 在文件路径上输入CMD回车打开命令窗口
    在这里插入图片描述
  • 在CMD窗口输入:
OllamaSetup.exe /DIR=d:\Ollama

语法:软件名称 /DIR=这里放你上面创建好的Ollama指定目录
在这里插入图片描述
会打开Ollama安装界面,点击Install后,可以看到Ollama的安装路径就变成了我们指定的目录了
在这里插入图片描述
在这里插入图片描述

2.4 检查安装:

安装完成后Ollama会自动运行,它没有任何的UI界面,只会悄悄地运行在后台(默认端口11434),你可以通过以下方式判断安装结果:

  • 方式一:检查任务栏

在这里插入图片描述

  • 方式二:浏览器访问http://localhost:11434

在这里插入图片描述

  • 方式三:netstat -aon|findstr 11434

netstat是网络统计命令,-a参数表示列出所有连接,-o参数表示显示进程ID,-n参数表示以数字形式显示地址和端口号。
findstr是查找指定的端口11434

  • 方式四:在cmd中使用ollama -v

在这里插入图片描述
因为还没有下载模型,所以这里模型列表是空的:

C:\Users\Administrator>ollama list
NAME               ID              SIZE     MODIFIED

C:\Users\Administrator>

3 使用 ollama run 部署/运行 DeepSeek-R1

Ollama部署/运行模型的操作跟Docker很像,我们了解下通过ollama的run 选项来部署/运行本地模型的方式:

C:\Users\Administrator>ollama run --help
Run a model

Usage:
  ollama run MODEL [PROMPT] [flags]

Flags:
      --format string      Response format (e.g. json)
  -h, --help               help for run
      --insecure           Use an insecure registry
      --keepalive string   Duration to keep a model loaded (e.g. 5m)
      --nowordwrap         Don't wrap words to the next line automatically
      --verbose            Show timings for response

Environment Variables:
      OLLAMA_HOST                IP Address for the ollama server (default 127.0.0.1:11434)
      OLLAMA_NOHISTORY           Do not preserve readline history

C:\Users\Administrator>

使用 ollama run MODEL 来部署/运行大模型,MODEL 是模型的名称,可以在ollama library中查询,其中有众多标签可供选择,选择适合自己电脑配置的模型即可。

3.1 下载 DeepSeek-R1 模型

在本地最常使用的是DeepSeek-R1从Qwen蒸馏出来的版本,我们可以根据自已的硬件来下载对应的模型。

3.1.1 CMD 使用nvidia-smi命令查看GUP信息

进入 CMD 窗口,输入 nvidia-smi 指令可以查看NVIDIA GPU的使用情况。

C:\Users\Administrator>nvidia-smi
Sat Feb 15 07:31:52 2025
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 560.94                 Driver Version: 560.94         CUDA Version: 12.6     |
|----------
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值