【AI测试学习】AnythingLLM+Ollama+DeepSeek部署私人知识库

1.搭建DeepSeek大语言模型

1.1Ollama大预言模型部署

Ollama简化了大型语言模型的运行,让每个人都能在本地轻松体验AI的强大,打开浏览器-下载Ollama-输入命令-搞定,这是本地部署大语言模型的全新方式。

这里我们借助Ollama大预言模型部署工具进行搭建

官网如下:Ollama

安装包也可百度网盘获取:
链接: https://pan.baidu.com/s/1fcM1MH7VK_6qfhCXvLjuEQ?pwd=ycy7 提取码: ycy7

 安装完成后,桌面右下角会显示ollama图标

1.2.安装DeepSeek

复制ollama run deepseek-r1:14b,打开cmd输入命令即可进行安装

 1.3、安装Embedding模型 

此外,在搭建私人知识库过程中,为了将数据转换为计算机易于处理的数值形式,同时减少信息的维度和复杂度,进行特征抽取,还需要安装Embedding模型

复制命令ollama pull nomic-embed-text,输入cmd进行安装 

利用ollama list进行检查


介绍几个Ollama常用的命令:

1.启动ollama服务

ollama serve

2.创建模型 (create)

使用 Modelfile 来创建一个新模型。你需要提供一个包含模型信息的 Modelfile。

ollama create /path/to/Modelfile

3.显示模型信息 (show) 

查看特定模型的详细信息,例如模型名称、版本等。

ollama show model_name

4.列出所有模型 (list)
列出本地所有可用的模型,可以在这里查找模型名称。

ollama list
ollama ls


5.运行模型 (run)
运行一个已安装的模型,执行某些任务。

ollama run model_name


6.列出正在运行的模型 (ps)
显示当前正在运行的模型列表。

ollama ps


7.删除模型 (rm)
删除一个已安装的模型。

ollama rm model_name


8.查看版本 (version)
显示当前 ollama 工具的版本信息。

ollama -v
ollama --version


9.复制模型 (cp)
复制一个模型到另一个位置或给定名称的地方。

ollama cp old_model new_model


10.从注册表拉取模型 (pull)
从模型注册表中拉取一个模型,供本地使用。

ollama pull model_name


11.推送模型到注册表 (push)
将本地模型推送到模型注册表中,以便他人或其他系统使用。

ollama push model_name

2.安装AnythingLLM

但是仅仅运行一个大语言模型还不够。如何让它真正理解你的数据,回答你的问题?这时,AnythingLLM就派上了用场。

它能将你的文档、笔记、网页等各种数据源连接到本地Ollama运行的DeepSeek模型,构建一个真正属于你的,个性化的知识库问答系统。告别在海量信息中苦苦搜索,让AI成为高效的知识助手!

官网:AnythingLLM | The all-in-one AI application for everyone

点击"Download for desktop" 下载

安装包也可百度网盘获取:
链接: https://pan.baidu.com/s/1Yhi_CJ3tW6LBQ7yfwKSlcA?pwd=wjra 提取码: wjra

安装过程这里不再展示,安装完成后进行私人知识库部署。 

3.私人知识库部署

(1)LLM首选项设置

在 LLM Preference 中,根据自己的需求配置大语言模型。 

(2)Embedder首选项

(3)私人知识库构建

选择我们建立的Yansky工作区,上传文档:

把文档移动到工作区,并点击Save and Embed,等系统处理完成:

以上基本就完成私人数据库的搭建。

我们,点击下方的Show Citations,之后就可以发现DeepSeek所参考的文档列表

(4)测试知识库效果

综上,我们可以看到大模型的回答基本上引用了文档的内容。

<think>好的,我现在需要帮助用户了解如何基于DeepSeek模型创建和管理私人知识库。首先,用户的问题提到了使用DeepSeek和RAG搭建私人知识库,并且引用了两篇相关的文章。我需要先理解这些引用内容,然后结合自己的知识来组织回答。 首先,引用[1]提到使用AnythingLLM作为知识库框架,并详细介绍了安装步骤。引用[2]则是在腾讯HAI上使用Ollama运行DeepSeek模型,并结合RAG。我需要将这两部分信息整合起来,给出一个清晰的步骤指南。 接下来,我需要确保回答结构清晰,分步骤说明。可能包括环境准备、模型部署知识库集成、配置RAG、应用开发和维护等部分。同时,用户可能关心具体的操作步骤,比如如何安装Ollama和运行DeepSeek模型,如何配置AnythingLLM,以及如何导入和管理文档。 还需要考虑用户可能的后续问题,比如性能优化、扩展功能等,所以在相关问题部分需要提前列出这些可能的问题。同时,要确保所有数学表达式和代码块符合格式要求,比如行内公式用$...$,独立公式用$$...$$,代码块用三个反引号包裹。 另外,用户提到使用中文回答,所以要注意语言准确性和流畅性。引用部分需要在适当的位置添加标识,例如在提到AnythingLLM安装时加上[^1],在Ollama运行DeepSeek时加上[^2]。 现在,我需要检查是否有遗漏的步骤,比如是否需要安装Docker,如何配置环境变量,以及权限设置等。同时,要确保每个步骤都逻辑连贯,用户能够按照步骤操作。最后,生成的相关问题要覆盖用户可能感兴趣的后续方向,比如性能优化、多模型集成、权限管理等。</think>### 基于DeepSeek私人知识库搭建与管理指南 #### 一、环境准备与工具选择 1. **基础框架选择** 主流知识库框架包括AnythingLLM[^1]、Dify、FastGPT等,推荐使用**AnythingLLM**(开源、支持本地部署、兼容多格式文档)。 2. **模型部署** - 使用Ollama快速部署DeepSeek模型: ```bash ollama run deepseek-r1:1.5b # 下载1.5B参数版本(1.1GB)[^2] ``` - 高性能需求可选择更高参数版本(如7B/67B)。 #### 二、知识库搭建步骤 1. **安装AnythingLLM** - 通过Docker一键部署: ```bash docker run -d -p 3000:3000 --name anythingllm -v ~/anythingllm:/app/server/storage mintplexlabs/anythingllm ``` - 访问`http://localhost:3000`完成初始化配置[^1]。 2. **关联DeepSeek模型** - 在AnythingLLM设置中选择**Custom LLM**,填入Ollama接口地址: ``` API Endpoint: http://localhost:11434/v1 Model Name: deepseek-r1:1.5b ``` 3. **知识库文档管理** | 功能 | 操作示例 | 支持格式 | |--------------|------------------------------|-----------------------| | 文档批量导入 | 上传PDF/TXT/Markdown | PDF, TXT, MD, DOCX | | 文本分块 | 自动按语义分割(512 tokens) | - | | 向量化存储 | 默认使用HuggingFace嵌入模型 | 可切换为Cohere/OpenAI| #### 三、RAG配置优化 1. **检索增强生成设置** $$ \text{相关性阈值} = 0.75 \quad (\text{建议值:0.6-0.9}) $$ 调整阈值可平衡检索精度与召回率。 2. **Prompt工程示例** ```python prompt_template = """ 基于以下知识库内容: {context} 请回答:{question} """ ``` #### 四、应用开发与维护 1. **API集成** ```python import requests response = requests.post( "http://localhost:3000/api/v1/chat", json={"message": "SAP MM模块是什么?", "mode": "query"} ) ``` 2. **监控与更新** - 日志分析:`docker logs anythingllm` - 知识库增量更新:支持自动同步Git仓库或NAS存储
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值