在构建大语言模型(LLM)应用,特别是检索增强生成(RAG)系统时,分块(Chunking) 往往是被低估却最关键的一环。它不仅仅是简单的“切分文本”,而是将人类知识转化为机器可理解片段的桥梁。如果分块策略选择不当,再强大的模型也可能面临“断章取义”或“由于缺乏上下文而产生幻觉”的风险。

并没有一种策略能完美适配所有场景。我们需要根据文档的结构、长度、语义密度以及对上下文的依赖程度,在效率与智能之间寻找平衡。以下我们将深入解析目前主流的八种分块策略,从基础的机械切割到最前沿的语境感知技术。
对于追求极致速度、低成本,或者文档本身逻辑简单的场景,机械式分块是首选。
- 固定大小分块
这是最基础、最直观的策略。它的逻辑非常简单:设定一个固定的字符数或 Token 数量(例如每 500 个 Token 切一刀),不做任何语义判断。
• 适用场景: 这种“一刀切”的方法计算复杂度极低,非常适合处理会议记录、简短的博客文章或简单的常见问题解答(FAQ)。在这些场景中,信息点通常比较独立,对长距离上下文的依赖较弱。
• 局限: 它的缺点显而易见——它极易切断句子或破坏语义的完整性,导致模型在检索时只能看到“半句话”。
- 递归分块
为了弥补固定分块的缺陷,递归分块应运而生。它在追求固定大小的同时,引入了“软着陆”机制。它会尝试使用分隔符(如段落换行符、句号)来切分文本,如果切分后的块仍然过大,才会继续递归地使用下一级分隔符。
这种方法在保持效率的同时,最大程度地保留了句法结构的完整性。它是目前许多 RAG 框架(如 LangChain)的默认选择,非常适合处理研究论文、产品指南或简短报告。
许多文档(如技术手册、法规)本身就具有严谨的层级结构。忽略这些结构进行暴力切割,往往会丢失信息的定位价值。
- 基于文档的分块
这种策略严格按照文档的物理边界进行拆分。通过识别 Markdown 标题、文件格式特定的层级来确定切分点。
对于新闻文章、Markdown 文件或客户支持工票这类结构清晰的文档,这种方法能确保每个块都是一个相对独立的逻辑单元,避免了跨章节的混乱。
- 层级分块
当面对像员工手册、政府法规或复杂的软件文档这类“大部头”时,扁平化的切分往往会导致只见树木不见森林。层级分块采用“树状”结构:既保存宏观的父级块(如章节摘要),也保存微观的子级块(如具体条款)。
这种策略允许 RAG 系统在检索时通过“父文档检索”(Parent Document Retrieval)技术,先通过小块精准定位,再返回大块的上下文给模型,完美解决了精准度与上下文完整性之间的矛盾。
随着内容复杂度的提升,仅仅依靠符号或格式已经无法满足需求,我们需要深入到内容的“意义”层面。
- 语义分块
这是一种“听得懂话”的策略。它不再关注物理长度,而是利用嵌入模型(Embedding Model)计算句子之间的语义相似度。当相邻两句话的语义距离超过阈值(即话题发生偏移)时,才进行切分。
对于科学论文、教科书、小说或白皮书,保持叙述或论证的连贯性至关重要。语义分块能确保每个片段都包含一个完整的思想,而不是被字数限制强行打断。
- 基于 LLM 的分块
这是利用大模型本身的能力来决定“在哪里下刀”。我们将文本交给 LLM,让它根据上下文逻辑,识别出独立的命题或事件,并据此建立边界。
虽然计算成本高昂,但它在处理法律意见书、医疗记录或长篇分析报告时表现出的精准度是无与伦比的。它能像人类编辑一样,理解复杂的从句和逻辑跳转。
在追求 RAG 系统的极致性能(SOTA)时,业界正在向更复杂的“上下文感知”策略演进。
- 代理分块
这不仅仅是一个分块算法,而是一个智能系统。它引入了 AI Agent(智能体),先阅读文档,分析其逻辑结构,然后以此制定定制化的拆分计划。
这种策略能够处理那些极度微妙的文档。例如,在处理复杂的商业合同或企业策略时,Agent 可能会决定对某些部分进行摘要,而对关键条款保留逐字细节。它是目前解决高度非标准化文档的终极方案。
- 后置分块
这是一种颠覆传统 RAG 流程的“黑科技”。传统的做法是“先切分,再嵌入”,这往往导致切片边缘的信息丢失了全文背景。后置分块则是先对整个长文档进行嵌入处理,让每个 Token 的向量都包含了全文的上下文信息(例如利用长上下文模型),然后再从这个富含信息的整体中衍生出块。
这种方法特别适用于详细的案例研究或综合说明书,因为它确保了即便是一个微小的切片,也隐含了对全文宏观背景的理解,彻底解决了“断章取义”的难题。
选择分块策略,本质上是在做一道计算成本、检索速度与回答质量之间的算术题:
• 追求速度与低成本: 请坚守固定大小或递归分块。
• 处理结构化知识库: 层级分块是你的最佳选择。
• 处理高价值复杂文本: 语义分块或后置分块(Late Chunking) 值得你投入算力。
在实际应用中,最优秀的工程师往往不拘泥于一种方法,而是混合使用多种策略,为不同类型的数据定制最适合的“消化方式”。
那么,如何系统的去学习大模型LLM?
作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~

👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。


👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。

👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。

👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。

👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!
24万+

被折叠的 条评论
为什么被折叠?



