DeepSeek + AnythingLLM + Ollama 搭建本地大模型知识库

DeepSeek+AnythingLLM + Ollama 搭建本地大模型知识库

前言

本地部署的最大意义在于利用DeepSeek大模型的能力加上自己的知识库,可以训练出一个符合自己需求的大模型。

这就是本地部署+知识库的作用。是DeepSeek官网不具备的。因为这是训练的你的私有资料。

今天就来分享下这个搭建过程。用到的工具组合是AnythingLLM +Ollama +DeepSeek

废话不多说,直接干货

安装Ollama

1、官方网站下载:https://ollama.com/,点击download进行下载。

官网下载
2、为了避免安装在C盘占用空间,右键以管理员身份运行Ollama安装程序,可以使用命令指定路径方式安装Ollama,安装命令:OllamaSetup.exe /DIR=d:\Ollama,如下图:
命令安装命令
3、点击Install安装完成即可,如下图:
install
4、配置下载模型保存路径, 在D盘新建一个文件夹命名为OllamaAI,然后打开系统环境变量,新建变量名:OLLAMA_MODELS 变量值:D:\OllamaAI,如下图:

温馨提示: 此步主要是解决Ollama默认下载模型到C盘问题,若C盘空间足够大的小伙伴此步骤可略过。
环境变量设置
5.重启电脑后,在开始菜单找到Ollama程序打开,打开后在电脑右下角会有一个羊驼图标显示。
在这里插入图片描述
6、点击羊驼图标运行后,在右下角显示。
在这里插入图片描述

下载DeepSeek模型

1、输入ollama run+ 模型名称,按回车键即可下载(看下面附图硬件要求选择下载其中一个或多个,此过程可能有点慢,若下载失败重新输入命令下载即可),如下:

ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b

2、我们选择下载8b模型,在Windows PowerShell终端运行命令:ollama run deepseek-r1:8b。如下图:
在这里插入图片描述
3、使用命令运行模型:ollama run deepseek-r1:8b。试一下提问:你是谁?使用效果如下图:
在这里插入图片描述
这样就算安装成功了。

DeepSeek不同参数版本介绍:

模型参数规模典型用途CPU 建议GPU 建议内存建议 (RAM)磁盘空间建议适用场景
1.5b (15亿)小型推理、轻量级任务4核以上 (Intel i5 / AMD Ryzen 5)可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存)8GB10GB 以上 SSD小型 NLP 任务、文本生成、简单分类
7b (70亿)中等推理、通用任务6核以上 (Intel i7 / AMD Ryzen 7)中端 GPU (如 NVIDIA RTX 3060, 12GB 显存)16GB20GB 以上 SSD中等规模 NLP、对话系统、文本分析
14b (140亿)中大型推理、复杂任务8核以上 (Intel i9 / AMD Ryzen 9)高端 GPU (如 NVIDIA RTX 3090, 24GB 显存)32GB50GB 以上 SSD复杂 NLP、多轮对话、知识问答
32b (320亿)大型推理、高性能任务12核以上 (Intel Xeon / AMD Threadripper)高性能 GPU (如 NVIDIA A100, 40GB 显存)64GB100GB 以上 SSD大规模 NLP、多模态任务、研究用途
70b (700亿)超大规模推理、研究任务16核以上 (服务器级 CPU)多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存)128GB200GB 以上 SSD超大规模模型、研究、企业级应用
671b (6710亿)超大规模训练、企业级任务服务器级 CPU (如 AMD EPYC / Intel Xeon)多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存)256GB 或更高1TB 以上 NVMe SSD超大规模训练、企业级 AI 平台

安装AnythingLLM

安装一个交互界面的软件,可以把资料投喂给大模型,类似的交互界面很多,暂时使用AnythingLLM,有其他好用的工具,网友留言反馈。

1、官方网站:https://anythingllm.com,下载软件,如图:
在这里插入图片描述

2、同样默认安装到D盘,如下图:
在这里插入图片描述
3、点击安装后,直接等待安装完成。根据网速情况,安装快慢不一样,会下载各种模型及相关文件。如下图:
在这里插入图片描述

AnythingLLM基本应用

1、在桌面打开“AnythingLLM”应用程序,设置成中文,如下图:
在这里插入图片描述在这里插入图片描述
2、新建一个工作区,单击“新工作区”,在demo工作区上单击设置图标,在“聊天设置”设置“工作区聊天模型”为:deepseek-r1:8b。如下图:
在这里插入图片描述
3、 在demo聊天应用效果如下图:
在这里插入图片描述
4、自定义知识库应用
 将自己的资料投喂给deepseek模型,在demo工作区上单击上传文件按钮,如下图:
在这里插入图片描述
4、 我把上传投喂给deepseek模型,上传成功后,选择相应的文件,单击“Move to Workspace”按钮移动到demo工作区;然后单击“Save and Embed”按钮,根据文档内容的大小处理过程耗时不一样;保存成功后,在文件后面的按钮钉起来后会变成黑色,就证明选择这个文件。如下图:
在这里插入图片描述
5、返回demo工作区后,问同样的问题就OK了。

### 使用 DeepSeekOllamaAnythingLLM 构建本地知识库 #### 准备工作 为了成功构建包含 DeepSeekOllamaAnythingLLM本地知识库,需先确认环境配置满足最低硬件需求,并完成必要的软件安装。 - **操作系统支持**:Linux, macOS 或 Windows (建议使用 WSL2)[^1]。 - **依赖项准备**:Python 3.x 版本及其开发工具链;Docker 及 Docker Compose 安装完毕并能正常运行[^2]。 #### 配置与部署 ##### 获取所需资源 通过命令行拉取最新版本的 Ollama 模型文件至本地存储: ```bash ollama pull bge-m3 ``` 此操作会下载指定的大规模预训练语言模型及相关组件,确保后续处理流程顺利进行。 ##### 初始化项目结构 创建一个新的目录用于存放整个项目的源码以及相关配置文件。在此基础上初始化 Git 仓库以便于版本控制管理。 ```bash mkdir my_local_knowledge_base && cd $_ git init . ``` ##### 设置 DeepSeek 环境变量 编辑 `.env` 文件加入如下内容以适应特定场景下的参数调整(如 API 密钥、端口映射等)。这一步骤对于保障系统的稳定性和安全性至关重要。 ```plaintext DEEPSEEK_API_KEY=your_api_key_here PORT=8080 DEBUG=True ``` ##### 整合 AnythingLLM 平台 利用 AnythingLLM 提供的功能接口快速对接各类外部数据源,包括但不限于静态 HTML 页面、PDF 文档集或是关系型数据库表单记录。具体实现方式可参照官方文档说明中的 Python SDK 应用实例。 ```python from anythingllm import DocumentLoader, KnowledgeBaseBuilder loader = DocumentLoader(source="path/to/your/documents") builder = KnowledgeBaseBuilder(loader) knowledge_base = builder.build() ``` #### 启动服务 一切就绪之后,在终端执行启动脚本来激活全部微服务单元,使之协同运作形成完整的解决方案栈。 ```bash docker-compose up -d --build ``` 此时访问 `http://localhost:8080` 即可见证由 DeepSeek 加持的人工智能驱动的知识检索界面雏形初现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值