玩转大语言模型——本地部署deepseek R1和本地数据库的小白教程(Ollama+AnythingLLM)

系列文章目录

玩转大语言模型——使用langchain和Ollama本地部署大语言模型
玩转大语言模型——三分钟教你用langchain+提示词工程获得猫娘女友
玩转大语言模型——ollama导入huggingface下载的模型
玩转大语言模型——langchain调用ollama视觉多模态语言模型
玩转大语言模型——使用transformers中的pipeline调用huggingface中模型
玩转大语言模型——transformers微调huggingface格式的中文Bert模型
玩转大语言模型——使用GraphRAG+Ollama构建知识图谱
玩转大语言模型——完美解决GraphRAG构建的知识图谱全为英文的问题
玩转大语言模型——配置图数据库Neo4j(含apoc插件)并导入GraphRAG生成的知识图谱
玩转大语言模型——本地部署带聊天界面deepseek R1的小白教程
玩转大语言模型——本地部署deepseek R1和本地数据库的小白教程(Ollama+AnythingLLM)
玩转大语言模型——使用LM Studio在本地部署deepseek R1的零基础)教程
玩转大语言模型——Ubuntu系统环境下使用llama.cpp进行CPU与GPU混合推理deepseek
玩转大语言模型——使用Kiln AI可视化环境进行大语言模型微调数据合成


前言

最近deepseek模型可谓是非常火爆,尤其是deepseek R1的逻辑能力,并且deepseek R1还开放了多种参数大小的蒸馏模型,使得本地部署成为了可能。在本系列中上一篇介绍了在本地部署deepseek R1的用法,本篇将介绍如何部署本地大模型的数据库。


Ollama

下载ollama

下载安装ollama的过程如果之前有按照步骤配置过,可以跳过直接下载AnythingLLM.
Ollama官网:https://ollama.com/
在这里插入图片描述
点击下载,选择符合自己系统的版本,点击下载
在这里插入图片描述
下载后按照提示安装即可

下载模型

回到官网,点击左上角的Models
在这里插入图片描述
点击后可以看到会有众多支持的模型
在这里插入图片描述
可以看到现在deepseek-r1排第一,直接点进去就可以,如果没有可以在上方搜索查找deepseek-r1
在这里插入图片描述
左侧选模型参数范围,一般越大能力越强,默认是7b的模型,选择好模型之后可以复制右侧的命令到命令行执行,会自动下载并运行模型,笔者的显卡是3060(6G显存),选择的是14b的模型,读者可以自行选择合适的大小。
只有第一次执行命令时会下载模型,下载过一次后执行命令会直接启动模型。如果只是下载模型而不需要在命令行启动模型,可以将run换成pull

AnythingLLM

下载安装AnythingLLM

AnythingLLM官网:https://anythingllm.com/
进入官网后经过人机验证后进入以下界面点击下载
在这里插入图片描述
选择符合自己电脑配置的版本下载
在这里插入图片描述
如果点击下载后出现下图情况
在这里插入图片描述
可以在下载按钮右键单击鼠标,复制下载链接到迅雷下载。
下载后根据引导安装即可。

初试Anything LLM

点击按钮Get started
在这里插入图片描述
然后选择Ollama并选择模型
在这里插入图片描述
然后一直点右边的箭头,到以下界面需要输出一个工作区名称,笔者为了省事就写作这是一个测试
在这里插入图片描述
然后点击右箭头
在这里插入图片描述
随后点击新建的工作区就可以对话了,笔者点击的是“这是一个测试”。
在这里插入图片描述

配置AnythingLLM设置

点击设置,选择ollama,然后选择deepseek模型在这里插入图片描述
修改提示词后更新设置在这里插入图片描述

构建本地数据库

下载embedding模型

打开命令行,输入

ollama pull nomic-embed-text

下载完成后打开左下角的扳手按钮
在这里插入图片描述
切换到新下载的embedding模型后点保存更改
在这里插入图片描述

上传数据库

点击左侧这个按钮上传数据
在这里插入图片描述
点击这个区域上传文件
在这里插入图片描述
笔者这里上传的是AI生成的学校制度大纲
在这里插入图片描述
选中新上传的文件,将文件移动到工作区
在这里插入图片描述
然后点Save and Embed进行保存
在这里插入图片描述
如果出现下面这种转圈的情况不要担心,等他转完就好
在这里插入图片描述
出现以下提示说明保存成功
在这里插入图片描述
可以选择点击这个按钮将文档Pin在工作区(可不选)
在这里插入图片描述
如果出现以下提示,选Okay,got it

在这里插入图片描述

测试

新建一个对话测试
在这里插入图片描述
这里可以看到模型已经识别到了文档信息了
在这里插入图片描述

内容概要:本文档详细介绍了 DEEP SEEK 的本地部署及其与私有知识库整合的具体步骤。主要包括两大部分:Ollama 平台的使用方法 DeepSeek R1 模型的安装指导。Ollama 是一种能够便捷部署深度学习模型(尤其是大型语言模型)的工具,它支持多种操作系统并在命令行中执行相应操作以完成从下载、配置直至实际使用的全过程。文中针对不同硬件条件给出了具体配置推荐,并逐步讲解了从安装 Ollama 到运行特定大小版本 DeepSeek 模型(如 1.5b 至 70b),再到设置 API 键连接云端服务以及最后利用 Cherry Studio 构建个人专属的知识库的一系列操作指南。同时附上了多个辅助资源如视频教程、在线演示平台链接以便更好地理解学习整个过程。 适合人群:适合有一定技术背景且想探索本地部署人工智能模型的初学者或是希望通过本地部署提高效率的研发团队。 使用场景及目标:一是帮助用户了解并掌握在本地环境中配置高性能 AI 工具的全流程操作;二是使用户能够根据自己拥有的计算资源情况合理挑选合适的模型大小;三是通过集成私有知识库为企业内部提供定制化的问答或咨询系统,保护敏感数据不受公开访问威胁。 其他说明:考虑到安全性稳定性因素,作者还提供了应对潜在风险如遭遇网络攻击时选用可靠替代源——硅基流动性 API 来保障服务持续稳定运作,并强调在整个实施过程中应谨慎处理个人信息及企业关键资产以防泄露事件发生。此外,提到对于更高级的功能例如基于 Ollama 实现本地知识库还有待进一步探讨发展。
### 配置集成 DeepSeek 连接到私有知识库 为了实现 DeepSeek 与私有知识库的有效连接,需考虑几个关键因素技术细节: #### 选择合适的版本 鉴于 DeepSeek R1 不支持函数调用特性,这意味着它不适合用于 Dify 的智能体环境中。相比之下,DeepSeek V3 提供了更广泛的功能集支持,因此建议优先选用 DeepSeek V3 版本来完成此任务[^1]。 #### 准备工作环境 确保拥有足够的计算资源来运行所选的 DeepSeek 模型版本,并安装必要的依赖项。对于本地部署而言,准备一台具备良好硬件条件的工作站或服务器至关重要。此外,还需搭建适合于模型运行的操作系统及编程环境,如 Python 解释器及相关库文件等[^3]。 #### 构建数据接口 为了让 DeepSeek 能够访问并利用私有知识库中的信息,建立高效的数据交换机制必不可少。一种方法是通过 API 或数据库查询的方式让模型获取所需资料;另一种则是采用嵌入式方案——即将部分重要知识点预先加载至内存中以便快速检索使用。无论采取哪种方式,都应注重保护敏感信息安全性隐私权[^2]。 #### 实现具体功能 当上述准备工作完成后,则可着手开发具体的交互逻辑代码片段。下面给出一段简化版Python脚本作为示例说明如何向用户提供基于其提问从私人知识库里查找相关内容的服务: ```python from deepseek import DeepSeekModel # 假设这是官方提供的SDK包名 def get_knowledge_from_private_db(query_string): model = DeepSeekModel(version="V3") # 初始化指定版本实例对象 result = model.search_in_kb(query=query_string, kb_path="/path/to/private/kb") return result if __name__ == "__main__": user_input = input("请输入您的问题:") answer = get_knowledge_from_private_db(user_input) print(f"找到的答案如下:\n{answer}") ``` 这段程序展示了怎样创建一个 `DeepSeekModel` 类的对象并通过它的成员函数去执行针对特定路径下保存着用户自定义内容的知识库搜索操作。当然实际应用时还需要根据实际情况调整参数设置以及错误处理流程等方面的内容。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

艾醒(AiXing-w)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值