本文针对AI知识库常见的"幻觉"问题,提供5个实战技巧帮助读者显著提升Dify知识库准确率。通过手动调段、父子分段、提示词上锁、数据清洗和召回重排等方法,读者可在10分钟内完成配置,将AI回答准确率从67%提升至94%。这些技巧不仅能解决AI胡说八道的问题,还能让知识库从"江湖骗子"变身"专业顾问",是程序员和AI爱好者必备的实用指南。
摘要:朋友们,是不是经常被自己搭建的AI知识库气得血压飙升?
用户问:“你们这个产品的保修期是多久?”
AI答:“我们的产品质量卓越,享誉全球,终身为您提供优质服务。”(实际保修只有一年)
用户问:“请总结一下2023年的财务报告第三季度数据。”
AI答:“根据资料,2023年第三季度我们营收…(开始一本正经地编造数据)”
疯了!真是疯了!
这种“一本正经地胡说八道”,在RAG(检索增强生成)领域我们称之为“幻觉”(Hallucination)。它不仅是知识库的“头号公敌”,更是劝退用户的“最佳损友”。
今天,作为深耕AI一线的博主,我就用一篇纯干货,带你亲手“掐灭”AI的幻觉!只需10分钟,5个亲测有效的实战技巧,就能让你Dify知识库的准确率发生质变,从此告别胡说八道!
为什么你的知识库总是在“鬼扯”?
简单说就两点:1. 没找到(检索渣);2. 找到了但瞎编(管不住嘴)。今天的5个技巧,就对着这两个死穴猛攻。
🔥 技巧一:手动调段——给AI喂“细粮”,别喂“整猪”
问题:直接把100页的PDF丢进去?AI就像让你生吞一整头猪,根本无法下嘴。它检索时,可能会抓住一段不相关的内容大做文章。
解决方案:手动分段!在 Dify 的知识库编辑页面,先进行自动分段,然后手动调整分段内容。也可以手动设置分段符号,让AI根据手动分段符号进行分段,总之关键原则是分段内容完整,且足够小,不能1000个字符一个分段。分段太长,检索的时候,检索的相似度太低,检索效率太低。
关键原则:文本切成 300-500字一个的“语义块”,确保每一段都在讲一件完整的事。
操作路径:Dify → 知识库 → 文档 → 添加文档→ 设置分段→分段最大长度 512,分段字符:可以手动填写上例如 ######,注意需要在文档上需要分段的地方出现相同的#######。
手动调整:Dify → 知识库 → 文档 → 点击具体的文档 → 点击其中的分段
→编辑分段。可以将分段位置不对的,copy后,然后添加到别的分段中,也可以手动添加分段。如下图所示。

效果:段内信息自洽,检索目标更明确,从源头上减少误检。
🔥 技巧二:父子分段——给它“关键词”,再给它“上下文”
问题:段切好了,但检索时可能因为关键词匹配度不高而漏掉关键段落。
解决方案:启用父子分段模式!这是大幅提升召回率的“核武器”。
- 父段落:500字左右的核心内容原文。
- 子段落:100字左右的摘要或关键词提炼。
操作路径:在文档处理的「分段模型」里,果断选择「父子模式」。
原理:检索时先匹配关键词丰富的子段落,一旦命中,直接带回拥有完整上下文的父段落给LLM阅读。这叫“精准定位,饱和打击”。
效果:官方实测,这种策略能让检索精准度提升**35%**以上!

🔥 技巧三:提示词上锁——给AI的“嘴”贴上封条
问题:检索到了无关内容,AI开始自由发挥;或者什么都没检索到,AI开始凭空创作。
解决方案:用**System Prompt(系统提示词)**给它立下“天条”!
核心指令(直接复制粘贴拿去用):
你是一个专业的客服AI,下面是知识库检索到的参考内容,请使用检索到的内容进行图文混排的方式,回答用户的问题。必须严格按照知识库内容进行回答,不要自己创造。回答问题的时候请清空缓存,重新根据检索的内容开始进行问题的回答。
约束
-
请严格按照知识库检索到的内容进行回复。不需要对检索的内容做过多加工。
-
未检索到的内容,请回复抱歉,未检索到知识。
-
请在输出信息中保留知识库返回的图片完整信息。
-
请将检索到的图片直接进行预览显示。
-
请将检索到的表格直接进行预览显示。
-
请将检索到的公式直接进行预览显示。
关键原则:
- 严格的数据库依赖性:
-
每个答案必须完全基于相关文档中存储的经过验证的产品信息。
-
不得虚构、推测或推断超出检索范围的细节。
-
如果您无法找到相关数据,请回复:“我在我们的知识库中找不到此信息。请稍后再试,或提供更多详细信息以进行进一步搜索。”
- 信息准确性与结构:
-
以清晰、简洁且专业的方式提供信息。
-
如果有多个关键点(例如,服务名称、功能菜单名称、操作步骤、技术规格),请分步骤描述。
-
在适用的情况下,务必注明服务名称或产品名称,以避免混淆。
- 语气与风格:
-
始终保持礼貌、专业且乐于助人的语气。
-
避免营销夸大其词或使用促销语言;严格保持事实性。
-
不要发表个人观点;仅引用检索知识库数据。
- 用户指南:
- 如果用户的查询不清楚或过于宽泛,请礼貌地要求其澄清或引导其提供更具体的服务名称或者产品名称(例如,服务名称、服务类型、国产或者非国产、规格类型)。
示例:“您能具体说明一下服务名称或类别吗?这样我就能为您检索到最相关的信息。”
- 回复长度与格式:
-
对于一般性询问,请将每个回答控制在100-150字以内。
-
对于复杂或多步骤的解释,你可以扩展到200-250字,但始终要保持清晰且结构合理。
-
请用简体中文回答用户的问题。
- 重要提醒:
您的权威性和可靠性完全取决于对相关文档的回复。任何捏造、推测或未经核实的内容都将被视为您职责的严重失职。
再次强调,未检索到内容,请回答抱歉,未检索到知识。
-
回答的展示框固定在宽度800像素
-
输出内容禁止出现代码段包括:SQL、Mathematica、Bash、Mermaid、MarkDown、Python
-
输出内容禁止出现Log
-
禁止输出Mermaid格式流程图
-不改变检索内容中的图片链接地址,请直接展示图片内容,图片展示的格式请参考如下:
- Markdown 格式的图片示例:
用户提问前,自动插入锁定指令:
仅基于以下资料回答:{检索到的内容}
效果:这是最简单粗暴但立竿见影的一步,幻觉率呈断崖式下跌。
🔥 技巧四:数据清洗——向量数据库只吃“精加工食品”
问题:原始文档里的表格、页眉页脚、广告语、格式混乱的日期,这些“垃圾”会严重污染你的向量数据库,导致匹配相似度得分天生就低。
解决方案:上传前,给文档来个“深度SPA”!
- 表格处理:把含有表格 Word/PDF 里的文档采用如下命令,一键转为干净的 Markdown 表格格式。

当然你得自己安装docling,它是一个开源的文档识别转化工具。
- 剔除杂质:手动删除所有页眉、页脚、免责声明、无关广告句。
- 格式统一:将“2023.10.01”、“2023-10-1”、“23年10月1日”统一成“2023-10-01”。
效果:别小看这些细节,清洗后的文档,向量匹配平均相似度得分能提升0.12+,相当于给AI换上了高清眼镜。
🔥 技巧五:召回+重排——“广撒网,精捕捞”的终极策略
问题:检索策略太死板,要么漏掉关键信息,要么塞给AI一堆垃圾信息让它confuse。
解决方案:分两步走,优化检索流水线。
1. 知识库设置:广撒网(提高召回率)
TopK从5调到10(多召回几条备选)相似度阈值从0.65降到0.55(降低门槛,“宁可错杀,不可放过”)
目的:先把所有可能相关的段落都捞上来!
2. 检索组件:精捕捞(提升精度)
TopK从5降到3(最终只给LLM看最精华的3条)相似度阈值从0.5调到0.7(提高最终门槛)- 最关键一步:开启「Rerank」模型(重排序),推荐用
BGE-Reranker。
目的:让Rerank模型利用更深度的语义理解,对“广撒网”召回的所有段落进行重新排序,把最相关、质量最高的3条置顶,再交给LLM生成答案。
效果:这是压死幻觉的“最后一根稻草”。实测显示,这一套组合拳能让最终答案的命中率从 67% 飙升至 94%!
总结一下
别再抱怨Dify不好用,可能只是你没用对方法。记住这5步:
1、手动调段(切细粮)
2、父子分段(关键词+上下文)
3、提示词上锁(立规矩)
4、数据清洗(提质量)
5、召回重排(广撒网+精捕捞)
这套流程下来,10分钟就能完成配置上线。你的AI知识库将从“满嘴跑火车”的江湖骗子,变身成“言必有据”的专业顾问。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

2297

被折叠的 条评论
为什么被折叠?



