人人都可以创建个人知识库 从0到1,手把手教你基于 FastGPT 搭建本地私有化知识库!

HELLO大家好,我是图欧君!

最近有小伙伴在群里说要求出一期关于AI知识库的教程,图欧君向来有求必应。

在精心的筹备之后,这它不就来啦~

当今环境,所有人都面临一个问题:信息过载。不知道你是否曾经遇到过以下困扰?

  • 在海量数据中搜索时,是否难以迅速找到所需的信息?

  • 在面对日益增长的专业知识,是否感到知识管理的需求愈发迫切?

  • 对于敏感数据的存储,是否时常害怕一不小心就会泄露关键信息?

  • 在日常工作中,是否因为工作效率不高而觉得时间不够用?

如果这些场景让你感同身受,那么你一定在思考:是否存在一种方案,能够一举解决这些棘手的问题?

经过图欧君的研究,发现确实有这么一个方案,它就是基于 FastGPT 搭建本地私有化知识库,一个为你量身定制专属的知识管理解决方案。

下面图欧君将带领大家揭示如何结合FastGPT、大语言模型和向量模型,构建属于你自己的本地私有化知识库。

话不多说,正文开始。

安装部署FastGPT

什么是FastGPT?FastGPT,是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。

同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

FastGPT 在线使用地址:https://cloud.fastgpt.in/login

FastGPT 在线GitHub地址:https://github.com/labring/FastGPT

推荐配置

为了满足广大用户的具体需求,FastGPT提供了PgVector、Milvus和zilliz cloud三种版本可供选择。我们可以根据自己的数据规模和性能要求,灵活地在Linux、Windows、Mac等不同的操作系统环境中部署合适的版本。

「PgVector版本」 —— 针对初体验与测试的完美起点
PgVector版本是进行初步体验和测试的理想选择。它简便易用,适合处理中小规模的向量数据,能够迅速掌握并开始工作。

「Milvus版本」 —— 专为千万级向量数据设计的性能强者
当数据处理需求升级至千万级以上,Milvus版本较之其他版本具有卓越的性能优势,是处理大规模向量数据的首选方案。

「zilliz cloud版本」 —— 亿级向量数据的专业云服务解决方案
对于处理亿级及更高量级的海量向量数据,zilliz cloud版本提供了专业的云服务支持,确保您能够获得高效且稳定的数据处理体验。得益于向量库使用了 Cloud,无需占用本地资源,无需太关注配置。

环境准备

FastGpt的部署重度依赖于Docker环境。因此,在本地系统或所管理的服务器上安装Docker环境是确保FastGpt顺畅运行的必要条件。

什么是Docker?这么说吧,FastGpt就像一款需要特定玩具盒子才能玩的电子游戏。这个特定的玩具盒子的名字就叫“Docker”。所以,如果我们想在我们的电脑或服务器上顺利地运行FastGpt,就必须先安装这个玩具盒子,这样FastGpt才能正确地工作。

Windows 系统安装 Docker

在 Windows 系统上,建议将源代码和其他数据绑定到 Linux 容器时,使用 Linux 文件系统而非 Windows 文件系统,以避免兼容性问题。

  1. 「使用 Docker Desktop」
    「推荐使用 WSL 2 后端」:可以通过 Docker 官方文档在 Windows 中安装 Docker Desktop。

    具体步骤请参考**:****https://docs.docker.com/desktop/wsl/**。

  2. 「使用命令行版本的 Docker」
    「直接在 WSL 2 中安装」:如果不希望使用 Docker Desktop,也可以选择在 WSL 2 中直接安装命令行版本的 Docker。

    详细安装步骤请参考:https://nickjanetakis.com/blog/install-docker-in-wsl-2-without-docker-desktop

macOS 系统安装 Docker

对于 macOS 用户,推荐使用 Orbstack 来安装 Docker。

  1. 「通过 Orbstack 安装」
  • 访问 Orbstack 官网 **(https://orbstack.dev/)**按照指示进行安装。
  1. 「通过 Homebrew 安装」

    brew install orbstack   
    
  • 在终端运行以上命令
Linux 系统安装 Docker

在 Linux 系统上安装 Docker 的步骤如下:

  1. 「打开终端,运行以下命令来安装 Docker:」

    curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun   systemctl enable --now docker   
    
  2. 「接着安装 **docker-compose**:」

    `curl -L https://github.com/docker/compose/releases/download/v2.20.3/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose chmod +x /usr/local/bin/docker-compose   `
    
  3. 「验证安装是否成功」

    docker -v   docker-compose -v   
    
  • 运行以上命令来验证 Docker 和 docker-compose 是否正确安装

开始部署

  1. 下载 **docker-compose.yml** 文件
    首先,我们需要访问 FastGPT 的 GitHub 仓库。在仓库的根目录中找到 **docker-compose.yml** 文件。点击文件,然后点击 “Raw”(原始)按钮,文件内容将显示在浏览器中。接下来,右键点击页面,选择 “保存为”,将其保存到您的计算机上。

  2. 修改 **docker-compose.yml** 环境变量
    使用文本编辑器(如记事本、Notepad++、VSCode 等)打开下载的 **docker-compose.yml** 文件,接下来在文件中找到与向量库版本相关的部分。根据您选择的向量库(PgVector、Milvus 或 Zilliz),您需要修改相应的环境变量。

    注意:如果选择的是 Zilliz 版本,则需要找到包含 **MILVUS_ADDRESS****MILVUS_TOKEN** 的行,将它们修改为您的 Milvus 服务地址和认证令牌,而另外的两个版本无需修改。

  3. 启动容器
    打开命令行工具(如终端、命令提示符或 PowerShell)。
    使用 **cd** 命令切换到包含 **docker-compose.yml** 文件的目录。例如:

    cd path/to/your/docker-compose.yml/directory   
    

    然后运行以下命令来启动容器:

    docker-compose up -d   
    

    这个命令会在后台启动所有定义在 **docker-compose.yml** 文件中的服务。

  4. 打开 OneAPI 添加模型
    在浏览器中输入您的服务器 IP 地址后跟 **:3001**,例如 **http://192.168.1.100:3001**
    然后使用默认账号 **root** 和密码 **123456** 登录 OneAPI。登录后,根据指示添加 AI 模型渠道。

  5. 访问 FastGPT
    在浏览器中输入您的服务器 IP 地址后跟 **:3000**,例如 **http://192.168.1.100:3000**
    使用默认用户名 **root** 和在 **docker-compose.yml** 文件中设置的 **DEFAULT_ROOT_PSW** 密码登录 FastGPT。

  6. 至此,FastGPT安装部署大功告成!

搭建私有化知识库

当第一次打开网站时,我们会发现界面一片白花花的啥也没有。这个时候,不要慌,来跟我按照以下步骤来搞定你的第一个个人知识库!

  1. 在左侧菜单栏选择“知识库”选项。

  2. 点击页面右上角的“新建”,开始构建您的第一个知识库。

在此过程中,可以根据自身的需求选择合适的知识库类型。紧接着确定我们的知识库名称、索引模型和文件处理模型。

完成创建后,点击右上角的“新建/导入”,根据您的数据集类型选择相应的导入选项。

首先需要准备好知识库数据集,可以为DOCX、TXT或者PDF格式,然后选择文本数据集,选择本地文件导入。这里图欧君以咱们的IMYAI知识库为例子,进入飞书云文档《IMYAI智能助手使用手册》之后点击右上角导出为Word文档,文档权限我已经开放为人人都可以创建副本,导出下载,这个大可放心。

IMYAI知识库地址:https://new.imyai.top

等待数据处理并成功上传后,状态栏将显示“已就绪”,这时知识库搭建就完成了。

知识库搭建完成之后就可以转到工作台栏进行应用的创建了,一共是提供了四种类型的应用可供我们选择,只需根据自己的需要选择合适的应用即可,图欧君在这里选择了简易应用做个示范。

左侧你可以对创建的应用进行一些配置,最后不要忘了把刚刚建立的知识库,关联进来。

完成配置之后,我们可以在右侧调试一下。比如我问他 “你知道TUO图欧君是谁吗?”,不难发现它会先从知识库中检索到相关信息再回答我。

如果在使用IMYAI智能助手的过程中遇到其他问题,也可以随时进行提问,它会根据知识库内容进行梳理总结,减少你寻找答案的时间(不过要记得,先导入知识库内容哦~)

通过对比不难看出,FastGPT这波回答的还是不错的,将原本的内容进行梳理整合之后重新输出,能够更加直观地找到解决问题的答案。

确认调试无误后,点击右上角的“发布”。发布成功后,就可以拥有一个基于本地私有知识库增强的LLM(大型语言模型)啦~

至此,一个私有化的个人知识库就搭建完成了,大家可以随时对知识库中的内容进行提问。

如果你觉得本文的技术含量过高,无法实现的话,可以使用咱们主站(点击左下角阅读原文直达主站)的自定义工作台功能,在预设里面粘贴你的文档数据,这样子也可以实现一个简单的私人小应用~

六、如何系统学习AI大模型?(附全套学习资源)

零基础入门AI大模型

今天贴心为大家准备好了一系列AI大模型资源,包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

有需要的小伙伴,可以点击下方链接免费领取【保证100%免费

点击领取 《AI大模型&人工智能&入门进阶学习资源包》

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

5.免费获取

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码或者点击以下链接都可以免费领取【保证100%免费】

点击领取 《AI大模型&人工智能&入门进阶学习资源包》

在这里插入图片描述

<think>好的,我现在需要帮助用户了解如何使用Qwen3大模型搭建本地知识库。根据用户提供的引用内容,之前他们部署了Qwen2.5模型,现在想升级到Qwen3。我需要结合之前的回答和引用中的信息,给出一个清晰的步骤指南。 首先,用户提到了Ollama和Dify的部署,所以可能需要在程中包含这些工具的使用。用户之前部署了Qwen2.5,现在转向Qwen3,我需要确认Qwen3是否支持类似的部署方法,或者是否需要额外的步骤。 接下来,用户提到要结合本地知识库作为Dify的上下文,这意味着需要将知识库集成到Dify中,可能涉及文档加载、向量化存储和检索增强生成(RAG)的应用。这部分需要详细说明如何处理知识库文件,如何配置Dify来使用这些数据。 另外,用户提供的引用中有关于资料领取的部分,但根据系统指令,应避免无关推广,所以需要忽略这部分内容,专注于技术步骤。 还需要考虑用户可能的痛点,比如环境配置、模型下载、知识库格式要求等。需要分步骤解释,确保用户能逐步操作,同时注意技术细节的正确性,比如正确的Ollama命令、Dify的配置参数等。 最后,生成相关问题时要围绕搭建过程中的常见问题、优化方法和应用场景展开,帮助用户进一步探索。</think>### 使用Qwen3大模型搭建本地知识库的详细程 #### 一、环境准备与模型部署 1. **私有化部署Qwen3模型** 使用Ollama工具部署Qwen3模型(7B或更高参数版本): ```bash # 拉取Qwen3模型(假设已支持) ollama pull qwen3:7b # 启动模型服务 ollama serve ``` 若官方未直接支持,可手动构建`Modelfile`: ```dockerfile FROM qwen/qwen3:7b PARAMETER temperature 0.7 SYSTEM "你是一个专业的知识库问答助手" ``` 2. **验证模型可用性** 通过CURL测试API接口: ```bash curl http://localhost:11434/api/generate -d '{ "model": "qwen3:7b", "prompt": "量子力学三大基本原理是什么?" }' ``` #### 二、知识库构建与处理 1. **文档格式规范** - 支持格式:PDF/TXT/MarkDown/HTML - 推荐预处理:使用Python库清洗文本 ```python from bs4 import BeautifulSoup def clean_html(raw_html): soup = BeautifulSoup(raw_html, "html.parser") return soup.get_text() ``` 2. **向量化存储** 使用LangChain构建向量数据库: ```python from langchain_community.embeddings import HuggingFaceEmbeddings from langchain_community.vectorstores import FAISS embeddings = HuggingFaceEmbeddings(model_name="BAAI/bge-base-zh") documents = [...] # 预处理后的文档列表 vector_db = FAISS.from_documents(documents, embeddings) vector_db.save_local("my_knowledge_base") ``` #### 三、Dify平台集成(社区版) 1. **部署Dify服务** ```bash git clone https://github.com/langgenius/dify cd dify/docker docker-compose up -d ``` 2. **配置知识库连接** 在Dify控制台: - 新建应用 → 选择「知识库问答」 - 上传预处理文档或连接现有向量库 - 设置检索参数: ```yaml retriever: search_type: "similarity" k: 5 score_threshold: 0.7 ``` 3. **RAG流程配置** ```python # 自定义处理链示例 from langchain_core.runnables import RunnablePassthrough retriever = vector_db.as_retriever() qa_chain = ( {"context": retriever, "question": RunnablePassthrough()} | prompt_template | llm | output_parser ) ``` #### 四、效果优化技巧 1. **混合检索策略** 结合关键词搜索与向量检索: ```python from langchain.retrievers import BM25Retriever, EnsembleRetriever bm25_retriever = BM25Retriever.from_documents(docs) ensemble_retriever = EnsembleRetriever( retrievers=[bm25_retriever, vector_retriever], weights=[0.4, 0.6] ) ``` 2. **查询扩展** 使用Query2Doc技术增强检索: ```python from transformers import pipeline expander = pipeline("text-generation", model="Qwen/Qwen1.5-7B") expanded_query = expander(f"生成与'{query}'相关的三个扩展问题") ``` #### 五、监控与维护 1. **日志分析配置** ```bash # 查看Dify请求日志 docker logs -f dify-api ``` 2. **知识库更新机制** ```python # 增量更新脚本示例 def update_knowledge(new_docs): global vector_db vector_db.add_documents(new_docs) vector_db.save_local("my_knowledge_base") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值