【AI落地应用实战】DeepSeek + RagFlow + Ollama + 私有知识库 构建本地知识库系统实战指南

在信息爆炸的时代,企业机构和个人用户都面临着海量非结构化数据的管理难题。本文将带您构建一个集大模型推理、智能检索、知识加工于一体的本地知识库系统,深度融合DeepSeek认知大模型的语义理解能力、RagFlow的文档智能处理能力以及Ollama的本地化部署优势。该系统具备三大核心价值:

  1. 私有化部署:数据全程在本地流转,杜绝敏感信息外泄
  2. 强大的文档处理:自带OCR,能够通过深度文档理解模块智能提取和组织信息,支持多种异构数据源,包括Word、PPT、Excel、TXT、图片、扫描件、结构化数据、网页
  3. 硬件加速:通过NVIDIA GPU加速推理

本文将以DeepSeek、RagFlow、Ollama为核心,手把手带你搭建一套支持GPU加速的私有知识库系统,助你快速实现AI技术的本地化部署与私有知识管理。

一、环境准备

本文基于 Ubuntu 22.04 LTS 系统,使用 NVIDIA GPU 加速,通过容器化技术快速部署以下组件:

Docker:容器化运行环境
Ollama:本地大模型推理引擎(支持Meta Llama3、DeepSeek等开源模型)
RagFlow:RAG(检索增强生成)框架
MinIO/MySQL/Redis:存储与缓存基础设施

二、DeepSeek + RagFlow + Ollama 实战指南

2.1、安装Docker

在这里插入图片描述

Docker是一个开源的容器化平台,能够帮助我们在隔离的环境中运行应用程序。在安装之前,首先更新索引:sudo apt update
在这里插入图片描述

其次输入指令sudo apt install docker.io 使用apt安装docker:
在这里插入图片描述
安装成功后可以使用docker -v查看docker版本,使用docker ps查看当前docker container情况:
在这里插入图片描述
能够显示内容,则说明docker安装成功!

2.2、镜像安装Ollama

Ollama是一个轻量级的模型服务框架,支持多种深度学习模型的部署和管理。它提供了简单的API接口,方便用户快速部署和使用模型服务。

在这里插入图片描述
Ollama的安装非常简单,这里我们可以通过Docker来快速部署,在国内环境下,一般使用docker pull ollama/ollama会报 docker error response from daemon: get "https://registry-1.docker.io/v2/错误,这是因为服务器无法访问到对应网站。

在这里插入图片描述
这里可以采用国内镜像网站加速的方案:https://github.com/dongyubin/DockerHub
在这里插入图片描述

在这里插入图片描述
比如,这里使用docker.1ms.run镜像网站拉取ollama:sudo docker pull docker.1ms.run/ollama/ollama
在这里插入图片描述
拉取后要记得使用docker tag 重命名为ollama/ollama,即::docker tag docker.1ms.run/ollama/ollama ollama/ollama

在这里插入图片描述

2.3、以GPU模式启动Ollama

如果你的机器配备了NVIDIA GPU,可以通过NVIDIA Docker工具包来启用GPU加速。

首先输入以下指令配置添加NVIDIA Docker仓库并安装NVIDIA Docker 2.x:​

# 安装NVIDIA Docker工具包
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
sudo apt-get update && sudo apt-get install -y nvidia-docker2
sudo systemctl restart docker

然后以GPU模式启动Ollama容器

sudo docker run -d --gpus all -p 8080:8080 --name ollama ollama/ollama

2.4 、安装RagFlow

RagFlow是一个基于RAG(Retrieval-Augmented Generation)框架的工具,能够结合检索和生成模型,提供更精准的问答服务。它通过从知识库中检索相关信息,再结合生成模型生成答案,显著提升了问答系统的准确性。

在这里插入图片描述

使用sudo docker compose -f docker-compose-base.yml up -d安装,一般会报错:
在这里插入图片描述
这里可以同样采用刚刚的方法,打开docker-compose-base.yml文件,找到报Error的镜像名称和版本号
在这里插入图片描述
使用同样的方法先下载,再用tag重命名:
在这里插入图片描述
如此同样的方法下载infinity、mysql、minio、redis:
在这里插入图片描述
分别安装完成后,再输入一遍sudo docker compose -f docker-compose-base.yml up -d,检查是否全部下载完成,如果显示如下则说明全部下载完成:
在这里插入图片描述
下载好基础镜像后,还需要根据需求安装对应版本的RagFlow,这里选择安装Linux GPU版本:
在这里插入图片描述
输入 sudo docker compose -f docker-compose-gpu.yml up -d安装GPU版本的RAGFlow

在这里插入图片描述
输入sudo docker ps -a可以看到目前运行的镜像状态,显示有ragflow-server、mysql、minio、redis、es、ollama这些镜像才算成功启动,如下:
在这里插入图片描述
输入对应的ip或者域名即可访问:

在这里插入图片描述
在这里插入图片描述

这样你就成功搭建了一个的本地私有知识库系统,如果想看RAGFlow的使用方法,以及基于RAGFlow的Agent方案,可以 支持我🎉:点赞👍+收藏⭐️+留言📝,后续文章会持续推出!

另外,我们已经建立了🏤采苓研学社群,如果你还有其他疑问,可以私信我加入社群

📝 加入社群 抱团学习中杯可乐多加冰-采苓AI研习社

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

中杯可乐多加冰

请我喝杯可乐吧,我会多加冰!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值