上个月就给大家同步了dify的下一个工作,rag2.0,当时我和他们的产品聊过rag2.0,核心的rag不会变动太多(dify本身rag能力够用,问题最多的在于文档格式)。主要是数据解析这块,以流水线的方式处理文档。 也叫知识管道。
上周dify发布了1.8.1以后,随后又发布了预览版dify 2.0.0 作为dify的大版本升级,更新的内容会比较多,如果是生产环境,建议先不要升级,等到正式发布以后再动,如果只是体验,可以直接升级。
注意,注意,注意,升级前一定要先备份一下。
升级
本次预览版的升级,是以tag的形式发布的。如果你fork的代码,不会同步tags和其他分支的,你可以把.git/config里的地址改为dify的。

如果自己本身代码有改动,先拉一个分支,本地提交下,然后再创建一个新的分支,来试验2.0.0版本。
# 只拉取指定的taggit fetch origin tag 2.0.0-beta.2# 创建一个2.0.0-beta的分支git checkout -b 2.0.0-beta 2.0.0-beta.2
关闭并重启
docker compose downdocker compose up -d#执行2.0升级命令,分组名称,默认是docker-api-1 我命名为dify了docker exec -it dify-api-1 uv run flask transform-datasource-credentials
知识管道
在升级之前我们要么在后台直接上传文本处理知识库,要么在通过工作流或者代码直接调用api处理。在本次升级以后,官方直接把知识库的处理流程给开放了出来,并且提供了一些模板案例。

在升级之前,我们通过工作流也能完成,无非麻烦一些,升级以后,官方将处理流程进行了抽象。
变化

升级以后,可以在知识库中创建知识库的下方看到有一个通过知识流水线创建知识库。

在知识库里有一个流水线的功能,存量知识库可以转换为流水线。
通过知识管道处理知识库
知识管道创建
知识管道创建有两种模式,一种是创建一个空白的管道自己配置,一种是利用官方内置流水线(Built-in Pipeline)。

先看下内置的流水线种类,以及作用。内置的知识流水线有以下七种:
| 模版名称 | 分段结构 | 索引方式 | 检索设置 | 说明 |
|---|---|---|---|---|
1 ,通用模式(General Mode) | 通用模式 | 经济 | 倒排索引 | 将文档内容分割成较小的段落块(通用块),直接用于匹配用户查询和检索。 |
2 ,父子模式(Parent-child Structure) | 父子模式 | 高质量 | 混合检索 | 采用了高级分块策略,将文档文本分成较大的”父块”和较小的”子块”。其中,“父块”包含了”子块”。这样既保证了检索的精确性,又维持了上下文的完整性。 |
3 ,简单问答(Simple Q&A) | 问答模式 | 高质量 | 向量搜索 | 将表格数据转化为一问一答的形式,通过问题匹配来快速找到对应的答案信息。适用于结构化表格数据。 |
4 ,复杂 PDF (含图片和表格)(Complex PDF with Images & Tables) | 父子模式 | 高质量 | 混合检索 - 加权评分 | 提取 PDF 文件内的图像和表格内容。 |
5 ,LLM 上下文增强(Contextual Enriching Using LLM) | 父子模式 | 高质量 | 混合检索 - 加权评分 | 将文档内的图片和表格提取出来,使用大型语言模型自动生成描述性注释,实现上下文的智能增强。 |
6 ,Markdown 转换(Convert to Markdown) | 父子模式 | 高质量 | 混合检索 - 加权评分 | 专为 DOCX、XLSX 和 PPTX 等 Office 原生文件格式设计,将其转换为 Markdown 格式以便更好地进行信息处理。 |
7 ,LLM 生成问答(LLM Generated Q&A) | 问答模式 | 高质量 | 向量搜索 - 加权评分 | 使用大型语言模型自动生成结构化的问答对,通过问题匹配机制找到相关的答 |

需要注意的是,断网情况下这些内置流水线加载不出来。从日志上可以看到,先从官方加载,官方网络不通,直接从本地加载,我是一路升级过来的,数据库里应该没有对应的信息。
通用模式

创建以后,可以看到依赖一堆的插件。因为官方是示例性质的,所以是一个大而全的集合。这里需要重点说一下两个插件
- • dify文本提取器

在知识管道里,点击空白右键,添加节点,在面板中有数据源的选项,这个是和现有工作流的差异。

从模板上我们可以看到下,也是这么四步。
- •
第一步配置数据源,多种形态 - •
第二步文档处理:这个示例里配置了两个处理器,一个是dify内置的文档解析器(Dify Extractor),一个是原来工作流节点的文档提取器。 - •
第三步:文本分块,这里使用的是dify 封装的通用分块器 - •
第四步:知识库配置,这里主要是配置索引方法和检索策略,这个和第三步紧密关联,

在第四步,分段结构没有必要,这个由第三步的分块器决定的,有这块配置反而增加了配置的复杂度。还不如直接根据第三步直接填写。
从dify的示例来说,大都是父子分段的格式,从另外一个层面可以反映出来,复杂文档,父子分段的效果最好。
我再讲解两个复杂的案例。
复杂 PDF 处理
这个是从模板4创建而来的。

依赖父子文本分块器。

整个流程,还是按照之前的四步来处理的。
- •
第一步配置数据源,是上传的文本 - •
第二步文档处理:这里使用的是MINERU,除了MINERU还可以用其他的文档处理插件处理。 - •
第三步:文本分块,使用的是父子分块器 - •
第四步:知识库配置,这里主要是配置索引方法和检索策略,这个和第三步紧密关联,

复杂pdf的处理,完全依赖于处理器的能力。
大家关闭梯子,去mineru的官网申请token就可以
https://mineru.net/apiManage/token

申请完token以后mineru的配置也很简单。

最后配置完索引方式和检索设置以后,别忘点击右上角的发布,发布的工作流,只是在本知识库中使用。回到文档那里,我们上传文档,然后等待管道的处理即可。

这个是上传的一个ppt的解析效果。图片解析出来了,也显示了。
这个折腾了1个多小时,才显示出图片,需要注意,升级那里的配置图片显示。


LLM 上下文增强

整个流程,还是按照之前的四步来处理的。
- •
第一步配置数据源,是上传的文本 - •
第二步文档处理:这里使用的是MINERU+LLM,我使用的qwen-vl. - •
第三步:文本分块,使用的是父子分块器 - •
第四步:知识库配置,同上
对比

上图左侧为通过多模态增强的解析,右侧为只用mineru解析,可以看到
- • 增加了多模态,只分了5段,根据语义做了归拢
- • 单纯的mineru 解析出来了11个分段

单纯的从解析出来的内容来看,多模态对图片进行了简单的描述,方便检索到对应的图片,同时内容的准确度也有极大的提升。

mineru只是对图片进行了简单的解析,图片后面跟的是后面的内容,并没有对图片进行描述。
其他
数据源插件
dify 2.0支持多种来源的数据。

在插件市场有一个数据源的插件的分类。是数据管道支持的数据源类型。大家可以看看。
文档处理
文档处理器是一个特殊的插件,官方示例里有下面几种:
- • 文档提取器 (Doc Extractor)
- • Dify 提取器 (Dify Extractor):dify开发的内置提取器,针对 Doc 文件进行了专门优化。它能够从文档中提取图片,进行存储并返回图片的 URL
- • MinerU
- • Unstructured:将文档转换为结构化的机器可读格式,具有高度可定制的处理策略
在插件市场我们可以看到其他的插件,比如合合
分块器
目前dify官方支持三种分块器,其实就是知识库里的配置进行了抽取。
- • 通用分块器 (General Chunker)
- • 父子分块器 (Parent-child Chunker)
- • 问答处理器 Q&A Processor (Extractor+Chunker)
每个分块器都有不同的特点和使用场景。
| 类型 | 特点 | 使用场景 |
|---|---|---|
| 通用分块器 | 固定大小分块,支持自定义分隔符 | 结构简单的基础文档 |
| 父子分块器 | 双层分段结构,平衡匹配精准度和上下文 | 需要较多上下文信息的复杂文档结构 |
| 问答处理器 | 处理表格中的问答组合 | CSV 和 Excel 的结构化问答数据 |
分块器的设置,是在处理文档的时候进行设置,每个文档都可以自定义。
知识库配置
索引方式和检索设置参考原知识库设置即可。
常见问题解决
新建流水线空白

开启梯子,重新刷新即可。

mineru 异常
-
• 无法登录
-
•

关闭梯子
图片不显示
按照下面的内容配置以后,销毁并重启服务
.env配置
# 配置文件外网路径,自己本机ip或者域名FILES_URL=http://10.1.0.65:5001# 内网地址,不能配置,否则无法显示图片INTERNAL_FILES_URL=
docker-compose.yaml配置
# 我增加了name,不加,默认为dockername: 'dify' services: # API service api: image: langgenius/dify-api:2.0.0-beta.2 ports: - '${DIFY_PORTS:-5001}:5001' # 开放api的的端口,用于文件访问
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:

2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:

三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】

四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!
1254

被折叠的 条评论
为什么被折叠?



