【Rag实用分享】小白也能看懂的文档解析和分割教程

4b4da9ce-3df8-4d35-8201-5d950762b32e.jpeg

1. 我们要做什么?

我们要做一件“魔术”一样的事情:把一份份“看不懂”的文档,变成电脑能理解、能提问、能回答的格式。我们会教电脑怎么“读文件”“找重点”“分段落”。

就像我们把一本厚厚的书,按小故事一个个剪下来,这样以后看、问、找都方便!

2. 我们需要的工具(环境准备)

就像做蛋糕前要准备面粉、鸡蛋,我们也要先装好工具!

先装 Python(电脑必须装过 Python 才能继续)
接下来打开你的终端或命令行,依次输入这些命令:

/* by 01022.hk - online tools website : 01022.hk/zh/enlower.html */
# 创建虚拟环境(可选)
python -m venv env
source env/bin/activate  # Windows上是 env\Scripts\activate

# 安装我们需要的工具包
pip install langchain
pip install unstructured
pip install beautifulsoup4
pip install pymupdf
pip install openpyxl
pip install python-docx
pip install python-pptx
pip install modelscope

3. 让我们教电脑认识“文档”

电脑不像人,不认识 Word、PDF 这些文件,它只懂“文本”和“结构”这两样东西。

我们要先教它一个“概念”——Document(文档对象)。

/* by 01022.hk - online tools website : 01022.hk/zh/enlower.html */
from langchain.schema import Document

doc = Document(
    page_content="我是正文内容",
    metadata={"source": "我的文件路径.pdf"}
)
print(doc.page_content)  # 打印正文
print(doc.metadata)      # 打印元数据(比如文件名、页数)

这就像我们告诉电脑:“这是第几页的内容,它是来自哪里,它的原话是这些。”

4. 解析 HTML 网页

有两种方法:

  • 方法一:网页链接直接读(推荐)
  • 方法二:本地 HTML 文件
from langchain_community.document_loaders import WebBaseLoader,BSHTMLLoader

# 方法一:从网址抓网页内容
loader = WebBaseLoader(
    "https://flask.palletsprojects.com/en/stable/tutorial/layout/")
docs = loader.load()
for doc in docs:
    print(doc.page_content,doc.metadata)

# 方法二:读取本地html文件
loader = BSHTMLLoader("student-grades.html")
docs = loader.load()
for doc in docs:
    print(doc.page_content,doc.metadata)

我们可以用 BeautifulSoup 自己抓代码块:

from bs4 import BeautifulSoup

with open("student-grades.html", "r", encoding="utf-8") as f:
    html = f.read()

soup = BeautifulSoup(html, "html.parser")
code_blocks = soup.find_all("td", class_="py-3 px-4")

for block in code_blocks:
    print(block.get_text())

5. 解析 PDF 文件

PDF 是最常见的办公文档。我们用两个方法来解析它。

方法一:简单读取文字内容
from langchain.document_loaders import PyMuPDFLoader

loader = PyMuPDFLoader("analysisReport.pdf")
docs = loader.load()

for doc in docs:
    print(doc.page_content)
方法二:高级自定义——提取表格

安装依赖

pip install pymupdf pandas openpyxl

import fitz  # PyMuPDF
import pandas as pd

# 打开PDF文件
doc = fitz.open("analysisReport.pdf")

# 创建一个ExcelWriter对象,用于写入多个工作表
with pd.ExcelWriter("output_tables.xlsx", engine="openpyxl") as writer:
    page_num = 0
    for page in doc.pages():
        page_num += 1
        tables = page.find_tables()
        for table_index, table in enumerate(tables, start=1):
            df = table.to_pandas()
            print(df)
            # 写入Excel,每个表格作为一个sheet,命名方式为 Page_1_Table_1 等
            sheet_name = f"Page_{page_num}_Table_{table_index}"
            df.to_excel(writer, sheet_name=sheet_name, index=False)
            print(f"已写入:{sheet_name}")

6. Word、PPT、Excel 怎么解析?

Word
from docx import Document as DocxDocument

doc = DocxDocument("analysisReport.docx")

print("文本段落:")
for para in doc.paragraphs:
    print(para.text)

print("表格:")
for table in doc.tables:
    for row in table.rows:
        print([cell.text for cell in row.cells])
PPT
import os
import uuid

from pptx import Presentation

ppt = Presentation("demo.pptx")
# Create a directory to save images if it doesn't exist
output_dir = "ppt_images"
os.makedirs(output_dir, exist_ok=True)

for slide_id, slide in enumerate(ppt.slides):
    print(f"\n--- 第{slide_id+1}页 ---")
    for shape in slide.shapes:
        if shape.has_text_frame:
            print("[Text]", shape.text)
        elif shape.shape_type == 13:  # picture
            print("[Image] 有图片,保存")
            try:
                # Get the image
                image = shape.image

                # Generate a unique filename using UUID
                unique_id = uuid.uuid4()
                image_filename = os.path.join(output_dir, f"slide_{slide_id + 1}_image_{unique_id}.{image.ext}")

                # Save the image
                with open(image_filename, 'wb') as img_file:
                    img_file.write(image.blob)

                print(f"[Image] Saved: {image_filename}")

            except Exception as e:
                print(f"Error saving image: {e}")
        elif shape.has_table:
            print("[Table]")
            for row in shape.table.rows:
                print([cell.text for cell in row.cells])

Excel
from openpyxl import load_workbook

wb = load_workbook("fake.xlsx")
sheet = wb.active

print("按行打印单元格:")
for row in sheet.iter_rows():
    print([cell.value for cell in row])

print("合并单元格:")
for merged_range in sheet.merged_cells.ranges:
    print("合并: ", merged_range)

7. 把文档“切”成小段落(分块)

方法一:递归文本分块(最常用)
from langchain.text_splitter import RecursiveCharacterTextSplitter

text_splitter = RecursiveCharacterTextSplitter(
    chunk_size=128,
    chunk_overlap=30,
    separators=["\n", "。", "!", "?"]
)

docs_split = text_splitter.split_documents(docs)
for i, doc in enumerate(docs_split[:3]):
    print(f"第{i+1}块:\n{doc.page_content}\n")
方法二:语义分块(智能一点)
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.text_splitter import SemanticChunker

embedding = HuggingFaceEmbeddings(model_name="BAAI/bge-small-zh")

chunker = SemanticChunker(embedding)
docs_split = chunker.split_documents(docs)
方法三:模型分块(阿里的模型)
from modelscope.pipelines import pipeline

splitter = pipeline(
    task="text-segmentation",
    model="damo/nlp_corom_sentence-segmentation_chinese-base"
)

result = splitter("这是第一句话。这是第二句话。这是第三句话。")
print(result)

8. 总结一下!

工具名用途安装命令
langchain框架,封装 documentpip install langchain
unstructured自动识别多种文档pip install unstructured
PyMuPDF解析 PDFpip install pymupdf
beautifulsoup4HTML解析pip install beautifulsoup4
python-docxWord处理pip install python-docx
python-pptxPPT处理pip install python-pptx
openpyxlExcel处理pip install openpyxl
modelscope使用 AI 模型pip install modelscope

📌 小提示:

  • 多试几种 loader,理解它们的区别。
  • 文档结构不同,处理策略也要灵活。
  • 分块大小、重叠设置,可以根据句子长度分布来定。

优秀不够,你是否无可替代

软件测试交流QQ群:721256703,期待你的加入!!

欢迎关注我的微信公众号:软件测试君


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值