N8N+Qwen3-Embedding:不写代码也能搭建95%准确率的个人AI知识库

阿里巴巴近期发布了千问3系列模型中的文本嵌入模型Qwen3-Embedding。

该系列模型包含 0.6B、4B 和 8B 三种参数规模的版本,同时提供 GGUF 格式的量化版本。这些模型继承了 Qwen 基础模型卓越的多语言处理能力和长文本理解能力。

本视频将详细演示如何利用 Qwen3-Embedding 系列模型的优势,结合 N8N 工作流框架,在 5 分钟内无需编写代码即可构建强大的个人 AI 知识库。

通过整合 Qwen3-Embedding 系列模型和 N8N 工作流平台的优势,即使没有任何编程基础的用户也能轻松创建高效准确的个人知识库。

首先,我们来看一下Qwen3-Embedding系列模型。该模型在MTEB多语言榜单中排名第一,其8B参数版本得分达到70.58分,检索准确率高达95%,显著优于同类产品。

该模型支持2560维高精度向量表示,并具备32K上下文窗口双块注意力机制。此外,它还具有强大的多语言处理能力,支持100多种语言及方言,将跨语言检索误差率降低至30%。

值得一提的是,该模型提供的三个参数版本均为完全开源免费。

同时,它采用了先进的技术架构。接下来,我们重点分析N8N工作流平台的核心优势。其首要优势在于支持零代码可视化开发。

我们只需通过拖拽组件的方式即可构建工作流,无需编程基础。

该系统支持条件分支、循环等复杂逻辑,例如使用的Loop Over Items组件可实现循环功能。同时提供实时调试和错误跟踪等实用功能。

最重要的是,它拥有丰富的集成生态,支持500多种服务,包括API接口和自定义HTTP请求。

部署方案非常灵活,支持本地部署、Docker容器部署以及NPM云端部署等多种方式。

最重要的是,Qwen3-Embedding模型采用免费开源策略。该模型在性能指标方面与Qwen3-Embedding-8B、BGE-M3和Gemini-Embedding等进行了对比分析,同时提供了市场影响力对比和适用场景说明。如需详细了解,可查阅相关文档。

接下来,我将演示如何在n8n工作流平台中调用Qwen3-Embedding-41模型作为嵌入模型,无需编写代码即可从零构建个人知识库。

首先,我们需要确保本地已安装Ollama环境。若尚未安装,可访问Ollama官网,根据操作系统下载对应版本进行安装。

同时,需确保电脑中已安装Node.js,如未安装,请前往Node.js官网下载对应安装包。

建议安装VR及以上版本。

接下来,我们需要将Qwen3-Embedding-4B模型下载到本地。我们选择的是经过量化的GGUF格式模型,直接点击下载即可将模型保存至本地。

下载完成后,需要将该模型导入系统。

在Ollama中导入模型后,我们才能在N8N中使用该模型。针对模型导入,需要使用两条简单命令。首先,需要确认模型的下载路径,例如我将其直接下载到D盘根目录下。

模型下载完成后,我们需要执行以下两条命令。

首先,创建一个简单的 Modelfile 文件,用于在Ollama中加载 Qwen3-Embedding-4B-Q4_K_M 嵌入模型。该文件内容非常简单,仅包含一条 FROM 指令,指定我们刚刚下载的量化模型文件路径(位于D盘)。

通过 echo 命令将这段内容写入 Modelfile 文件,随后即可在 Ollama 中使用该文件。

通过 create 命令创建 Qwen3-Embedding 模型。接下来可以打开 Ollama 查看,首先使用 Ollama list 命令,可以看到目前有两个模型:Qwen3-Embedding 和 Qwen3-Embedding-test。这两个模型都运行正常,用户可以自行导入。

需要注意的是路径设置问题。

为避免出现中文路径,建议将路径保存至D盘根目录。模型创建成功后,可通过命令进行测试。例如,使用CURL方式验证模型是否可用。

输出的内容包含向量化结果,可见最终的浮点数即为文本字符串转换后的向量。这表明嵌入模型能够正常使用。

在Windows系统的CMD中,输入内容时需注意:单引号无法被识别,必须使用双引号。若内容本身包含双引号,需使用反斜杠进行转义。

完成此步骤后,需确保已安装N8N工作流框架。N8N框架操作简便。

在安装 LODE GS 后,可直接使用 NPX 命令,后接 N8N 即可。该命令会自动下载 N8N 框架内容并启动服务。

若能看到指定地址,则表明 N8N 服务已成功启动。此时只需输入单个字母,即可在浏览器中打开对应链接。

接下来,我们将创建一个新的工作流。

首先,删除之前的工作流,然后点击右上角的 “Create” 按钮,选择 “Workflow” 以创建新的工作流。

在新工作流中,点击加号,在右侧添加触发器。

接下来,我们简要梳理工作流的逻辑。由于需要构建个人知识库,首先需明确文件存储位置。因此,需添加一个组件用于读取指定路径下的文件。

我们点击加号,搜索“file”以找到与文件相关的操作。这里有一个“Read/Write Files from Disk”选项,用于从硬盘读取或写入文件。由于我们正在构建AI知识库,只需进行读取操作即可。

在读取设置中,保持类型为“读取”,接下来需要设置“snap fails”。

这是我们的文件路径。在构建AI知识库时,需要明确其存储路径。接下来我们将进行路径选择。

实际上,我已在本地创建好相关文件结构:在D盘下建立了n8n文件夹,其中包含一个名为ig的子文件夹。在该子文件夹下,可以看到一个PDF文件夹。

当然,在实际应用中,文件数量可能不止一个,而是多个。因此,在设置路径时需注意不能指定单一文件,而应使用通配符表示当前路径下的所有文件。

随后点击返回按钮,执行操作以检查是否存在问题。此时系统报错,表明未能找到相应文件。

现在我们来设置一下。在Windows系统中,路径通常需要使用两个反斜杠。这样设置后,系统就能正确读取PDF文件的内容了。按照我们之前讲解的逻辑,读取文件内容后即可进行后续操作。

由于读取操作是按顺序逐个处理文件的,即读取一个文件后进行向量化嵌入(embedding),处理完毕后再读取下一个文件,因此此处存在循环逻辑。为此,我们需要添加一个循环遍历组件。

点击加号搜索 “Loop over items” 并添加该组件。参数无需修改,直接点击”Break”返回即可。

接下来,我们首先点击运行工作流,确认其执行状态。工作流执行成功,说明循环组件能够正确读取文件内容。

文件读取完成后,我们需要对其进行处理。在添加循环组件后,我们需要在中间环节加入向量数据库模块。请点击加号进行添加。

我们首先搜索 “vector”,系统提供了多种选择,例如 simple vector、pack1 credit 以及网络数据库等。为简化操作,我们直接选择 vector 数据库。

界面呈现四种选项,我们选用第二个 “add document to vector” 功能,其作用是将文档转化为向量形式。确认选择后,系统默认配置中包含 memory key 参数,该参数具有重要作用。

由于当前操作涉及数据存储,存储时需指定一个键(key),检索数据时同样需要该键。此处可自行设置,但建议使用默认配置。

返回上一步后,可见系统提示存在配置问题,具体表现为两个组件未完成设置:

  1. Embedding模型:用于向量数据库的向量化处理。

接下来我们点击设置中的 Embedding 选项,可以看到有多种选择,例如OpenAI的Embedding和Google Gemini等。这里我们选择本地的Ollama。

在Ollama中,可以直接选择 Qwen3-Embedding 模型。如果是首次使用,需要先点击上方创建链接。创建链接时,若默认模型不可用,需手动配置。

将地址修改为 127.0.0.1 或您自己的 IP地址 后尝试连接即可。连接成功后,我们可以选择本地的 Ollama嵌入模型。

模型配置完成后,接下来需要处理第二个文档。由于文档内容较长,进行向量化处理时并非一次性存储整个文档,而是需要进行 分块处理。

关于分块的具体方法,首先需要加载相关模块。

一个名为 Deep Filter 的 Data Loader 加载器。在该加载器中,首先可以设置其类型为二进制。Model 参数保持默认不变。

接下来是 Data Format 设置,将其修改为 PDF 格式,用户可根据需求选择相应文件。

然后是 Pass Splitting 选项,默认采用 Simple 模式,同时也支持自定义设置。

接下来,界面下方会出现一个加号按钮,点击后选择”TextSplitter”。这是我们自定义的分割方式,可以根据文本块大小或语义进行分割。

我们选择第二种方式——语义分割。默认情况下,它按照1000个字符进行分割,我们可以设置200个字符的重叠区域。由于这是基于语义的分割,允许存在重叠部分。

至此,整个流程已经完成。

整个流程的实现步骤如下:首先从本地读取PDF文件,随后进入循环处理逻辑。在循环逻辑中,首先通过语义分割将PDF文件分割成若干小片段。这些片段再通过本地的Ollama Embedding模型转换为向量,并存储到SimpleVector向量数据库中。

接下来我们运行整个工作流进行验证。当前状态显示处理已完成,确认PDF文件已成功转换并存储到SimpleVector向量数据库中。由于PDF文件内容较多,向量化处理过程耗时较长。

这是使用N8N构建个人知识库的第一阶段。接下来我们将介绍第二阶段的内容。

第一阶段是将本地文件通过向量化处理后存储至向量数据库。第二阶段则是从知识库中进行向量检索。接下来,我们将创建详细的检索工作流。

首先,点击右上方的加号。接着,我们需要添加一个触发器。由于本次操作涉及对话,因此选择消息组件中的 “chat message”。确认选择该组件后,即可继续后续操作。

选择默认设置后,返回工作空间界面,点击加号按钮即可添加一个Agent。在Agent配置界面中,暂时无需进行其他操作。

返回后可以看到智能体配置包含三个主要模块:

  • Chat Model(对话模型)
  • Memory(记忆模块)
  • Tools(工具集)

首先,我们来看第一个模块——对话模型,即语言模型。点击加号后,可以看到多种选项,包括DeepSeek、谷歌、Ollama以及本地OpenAI等。

如需使用本地模型,请选择Ollama,并注意选择对应的语言模型。需要特别强调的是,务必选择对话型语言模型,而非销量模型。

需要说明的是,由于本地模型对电脑配置要求较高且效果有限,因此不建议选择本地Ollama模型。

由于参数限制较高,我选择使用在线的 DeepSeek模型。该模型可以直接选用,因为我已经配置好了 API Key。如果尚未配置,可以点击”Create”创建新连接,并将API Key复制到相应位置。

我已建立连接,因此直接使用DeepSeek模型。关于记忆功能暂时不需要使用,可以忽略。在工具部分,我们需要…

添加一个与向量相关的工具。在此处,我们需要选择 “Simple Vector” 选项。

需要注意的是,向量数据库的使用流程应为先添加工具,再配置向量数据库。因此,我们需要重新搜索 “Vector” 进行工具选择。

在工具中,有一个名为“Description of Data”的功能模块。其作用是为AI提供提示信息,明确该工具的具体用途。

例如,我们可以输入提示:“使用此工具执行基于向量的相关文档检索”。此外,该工具还支持设置返回结果数量,如限定返回四条记录。

返回后可以看到该方法会使用向量数据库。此时添加Sample Vector时,参数K需要与创建向量数据库时的设置保持一致。完成后还需选择语言模型,这里选用DeepSeek模型即可。

还需要选择一个嵌入模型,我们选择本地的Ollama和Qwen3-Embedding进行测试并返回结果。至此,整个流程已完成。以下是整体逻辑结构:

1.用户发送消息

2.AI系统接收消息后,由DeepSeek模型进行思考

3.DeepSeek会分析如何解决用户的问题

有一个工具用于执行向量检索。它会调用向量数据库,将用户的问题转换为向量并进行查询。查询完成后,将相关文档片段与用户问题一并发送给模型。这是其核心原理。

对于AI而言,关键在于如何识别并使用该工具。

他可能不了解这一工具。我们可以返回AI界面,点击“Open”打开,然后添加一个“Adaptation”选项,并设置系统提示信息。例如:“你需要调用Vector Store、SQL以及相关工具来检索用户的提问。”

一个提示池的设计使得系统能够明确如何调用相关工具。目前,我们已完成两个流程:

·上方流程实现了本地文档的规范化转换。

·下方流程则处理用户检索的具体逻辑。

接下来,我们将通过执行对应操作来验证效果。首先,让我们查看文档内容。

这是一个简单的小说PDF文件。在文件中,某些内容出现的频率较低,例如角色的名字“恶哥”,仅出现一两次。我们可以在浏览器中返回模型界面,测试千文山最强的235B模型是否能回答相关问题。

对于无法回答的问题,我们可以采用相同的方法处理。在工作流中,直接打开 OpenChat 进行对话。例如,输入问题“韩立的二哥叫什么名字”,然后执行检索操作。

接下来,我们将测试并观察查询结果,检查系统是否能检索到相关片段。

执行成功后,结果显示韩尼的二哥名为韩柱,这表明检索过程非常精准。

通过这种方式,我们成功构建了一个用于检索的N8N工作流。在使用N8N时,可以选择阿里的Qwen3-Embedding模型,无需编写代码即可构建个人知识库。

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

在这里插入图片描述

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

在这里插入图片描述

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

在这里插入图片描述

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值