前言
文章性质:实操笔记 📖
主要内容:本文详细记录了如何安装 Ollama 工具,借助 Ollama 在本地部署和使用 DeepSeek-R1 模型。
冷知识+1:小伙伴们不经意的 点赞 👍🏻 与 收藏 ✨ 可以让作者更有创作动力!
目录
一、安装 Ollama
在本地部署 DeepSeek-R1 模型前,我们需要先安装 Ollama 工具,Ollama 用于在本地运行大型语言模型(LLMs)。
官方网站:Download Ollama on macOS, Linux, Windows
Ollama 支持 macOS、Linux 和 Windows 等平台运行。
1、安装 Ollama 的相应版本
Step 1:我们可以在官网根据自己的操作系统下载相应版本的安装文件。
Step 2:双击下载好的 OllamaSetup.exe 文件,并在弹出窗口中点击 Install 进行安装。
【注意】在安装 Ollama 的过程中,我们可以通过进度条发现它默认安装在 C 盘。
!部分小伙伴可能不想将东西安装在 C 盘,接下来我将具体指导:
- 如何找到已经安装好的 Ollama 文件夹。
- 如何在不影响其使用的前提下,将其移动到其他盘。
如果不需要更改 Ollama 的安装位置,可以自行跳过下一小节噢~
2、更改 Ollama 的安装位置
Step 1:在【高级系统设置】的【环境变量】设置中,双击【Path】找到 Ollama 相关行,根据这个位置找到对应的文件夹。
【注意】在我的默认安装路径中有 AppData 文件夹,我一开始没找到这个文件夹,后来发现是自动隐藏,解决如下:
Step 2:将 Ollama 文件夹整个移动到其他位置,并且在【环境变量】中修改【Path】相应行。
3、测试 Ollama 是否安装成功
先使用 Win + R 的快捷键打开运行窗口,再进入 cmd 命令行窗口,输入命令:
ollama -h
二、部署 DeepSeek-R1
在 Ollama 中使用的大模型也默认存储在 C 盘,若是想更改大模型的默认部署位置,可以按照下面的步骤操作。
1、更改模型的部署位置
如下图所示,更改前大模型的默认部署位置: C:\Users\vineo\.ollama
Step 1:我们可以将整个 models 文件夹剪切至自定义的路径,我这里是: D:\Program Files\ollama-25\models
Step 2:我们还需要新建环境变量 OLLAMA_MODELS ,使得 Ollama 可以自动找到我们的大模型。
2、部署 DeepSeek-R1
Step 1:在 Ollama 官网的 Models 页面选择我们需要部署的大模型。
Step 2:根据自身需求来选择相应规模的模型,这里我选择的是 14 b 的,执行命令:
ollama run deepseek-r1:14b
【注意】在等待安装的 5 小时中,我发现多次 pulling manifest,安装进度甚至出现倒退现象,感觉可能网络不佳。
因此,我重新去安装最小的 1.5 b 版本,执行命令:
ollama run deepseek-r1:1.5b
【说明】如上图所示,可能因为我部署的模型规模比较小,所以其实效果不是很好。大家可以去尝试 14 b 的。
如何在 Ollama 查看已部署模型?
如果我们想查看本地在 Ollama 中已经部署的大模型,可以执行命令:
ollama list