将PDF转化为RAG文件,进行数据清洗

如何让小智AI成为你的第二大脑——“免费”送小智AI智能音箱征文活动 10w+人浏览 386人参与

AI助手已提取文章相关产品:

在本地 RAG 系统中使用 Marker:高精度 PDF 到 Markdown 的离线开源解决方案(2025 更新)

在本地 RAG(Retrieval-Augmented Generation)系统中,PDF 解析质量是决定最终问答准确率的关键(Garbage In, Garbage Out)。传统工具如 PyPDF2 或规则-based 提取器在处理多栏学术论文、LaTeX 公式、复杂表格时表现极差。

2025 年,Marker(由 VikParuchuri 开发)仍是学术文献 PDF 转 Markdown 的开源 SOTA 方案之一。它结合深度学习布局分析、高精度 OCR(默认 Surya)和公式重建,支持批量处理,输出干净的 Markdown + 结构化 JSON 元数据。相比 Nougat(更慢、专攻 arXiv),Marker 速度更快(4-10x)、泛化更好;相比 MinerU(表格强但配置复杂),Marker 安装更简单、VRAM 占用更低。

本节提供生产级批量 ETL 脚本,将 PDF 目录转换为 LLM 友好的 Markdown(用于 embedding)和 JSON(用于溯源引用)。

一、技术栈架构

Marker 将 PDF 的视觉层重构为语义层

  • 核心引擎:Marker(PyTorch-based)。
  • OCR:默认 Surya(文档专用、高精度),可选 ocrmypdf/Tesseract。
  • 布局分析:深度模型检测 Header/Footer/Image/Table/Equation/Code。
  • 公式处理:自动转为 LaTeX($$ 块)。
  • 表格处理:转为 HTML/Markdown 表格。
  • 后处理:启发式拼接阅读顺序、清洗噪音、保留引用。
  • 输入:批量 PDF 目录。
  • 输出:结构化 Markdown + JSON(块级 bbox、页码、图像)。
  • 硬件:NVIDIA GPU(VRAM ≥ 8GB 推荐,RTX 4070+ 可达峰值速度)。
二、环境构建

确保系统安装 CUDA Toolkit(推荐 12.1+)。

# 1. 创建虚拟环境(Python 3.10+)
conda create -n pdf_etl python=3.10
conda activate pdf_etl

# 2. 安装 PyTorch(根据 CUDA 版本调整)
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121

# 3. 安装 Marker(最新版支持多格式、JSON 输出)
pip install marker-pdf

# 4. 可选辅助库(进度条、JSON 加速)
pip install tqdm ujson

首次运行会自动下载模型权重(~3-5GB,到 ~/.cache/huggingface)。

三、生产级批量转换脚本

脚本支持增量处理、错误恢复、显存清理和可选参数。避免简单 for 循环,使用 tqdm 进度监控。

新建文件:pdf_etl_pipeline.py

import os
import glob
import ujson as json
import torch
from tqdm import tqdm
from marker.models import load_all_models
from marker.convert import convert_single_pdf
from marker.settings import settings  # 可自定义设置

# --- 配置区域 ---
INPUT_DIR = "./data/pdfs"          # PDF 输入目录
OUTPUT_DIR = "./data/processed"    # 输出目录
BATCH_MULTIPLIER = 2               # 显存倍数(RTX 4090 可设 4-8,12GB 卡建议 1-2)
MAX_PAGES = None                   # None=全部,调试时设 10
FORCE_OCR = False                  # True=强制全 OCR(扫描件)
OUTPUT_FORMAT = "markdown"          # markdown / json / html / chunks
# ----------------

def setup_models():
    """加载模型并检测设备"""
    device = "cuda" if torch.cuda.is_available() else "cpu"
    print(f"🚀 运行设备: {device.upper()}")
    if device == "cpu":
        print("⚠️ CPU 模式极慢,建议使用 GPU。")

    # 加载所有模型(布局、OCR、公式等)
    models = load_all_models()
    settings.TORCH_DEVICE = device  # 强制设备
    return models

def process_batch(models):
    """批量 ETL 主流程"""
    os.makedirs(OUTPUT_DIR, exist_ok=True)
    pdf_files = glob.glob(os.path.join(INPUT_DIR, "*.pdf"))

    if not pdf_files:
        print(f"❌ {INPUT_DIR} 中未找到 PDF 文件")
        return

    print(f"📂 发现 {len(pdf_files)} 个文件,开始转换...")

    success = 0
    errors = []

    for pdf_path in tqdm(pdf_files, desc="转换进度", unit="file"):
        filename = os.path.basename(pdf_path)
        doc_id = os.path.splitext(filename)[0]

        md_path = os.path.join(OUTPUT_DIR, f"{doc_id}.md")
        json_path = os.path.join(OUTPUT_DIR, f"{doc_id}.json")

        # 增量跳过
        if os.path.exists(md_path) and os.path.exists(json_path):
            continue

        try:
            # 核心转换(返回文本、图像字典、元数据)
            full_text, images, out_meta = convert_single_pdf(
                filename=pdf_path,
                models=models,
                max_pages=MAX_PAGES,
                batch_multiplier=BATCH_MULTIPLIER,
                force_ocr=FORCE_OCR,
                output_format=OUTPUT_FORMAT  # 可单独输出 JSON
            )

            # 保存 Markdown
            with open(md_path, "w", encoding="utf-8") as f:
                f.write(full_text)

            # 保存 JSON 元数据(块级页码、bbox、图像路径)
            with open(json_path, "w", encoding="utf-8") as f:
                json.dump(out_meta, f, ensure_ascii=False, indent=2)

            # 可选:保存提取图像
            img_dir = os.path.join(OUTPUT_DIR, doc_id + "_images")
            if images:
                os.makedirs(img_dir, exist_ok=True)
                for img_name, img_obj in images.items():
                    img_obj.save(os.path.join(img_dir, img_name))

            success += 1

        except Exception as e:
            error_msg = f"{filename} 处理失败: {str(e)}"
            errors.append(error_msg)
            torch.cuda.empty_cache()  # 清理显存防 OOM 连锁

    # 总结
    print(f"\n✅ 完成!成功: {success}/{len(pdf_files)}")
    if errors:
        print(f"⚠️ 失败 ({len(errors)}):")
        for err in errors:
            print(f" - {err}")

if __name__ == "__main__":
    if not os.path.exists(INPUT_DIR):
        os.makedirs(INPUT_DIR)
        print(f"📁 已创建 {INPUT_DIR},请放入 PDF 文件")
    else:
        models = setup_models()
        process_batch(models)

运行:python pdf_etl_pipeline.py

四、核心优势
  • 公式重建:像素公式 → 标准 LaTeX( .........),LLM 可直接理解数学逻辑。
  • 阅读顺序修复:基于 bbox 排序,多栏/复杂布局转为自然单栏流。
  • 表格高保真:HTML 表格,保留合并单元格。
  • 块级元数据:JSON 包含页码、坐标 → RAG 可实现“引用高亮原文”。
  • 速度:单 20 页论文 ~10-30 秒(GPU),批量更快。
五、替代方案与权衡(2025 更新)
方案核心技术适用场景劣势
MarkerLayout + Surya OCR + Heuristics通用学术/书籍(首选)极端复杂表格偶有丢失
MinerUVLM (1.2B-2.5B) + PDF-Extract-Kit复杂中文/扫描件/表格密集配置复杂、VRAM 高
NougatSwin + mBART纯 arXiv 公式密集速度慢(1页/10s+)、泛化差
UnstructuredYOLO + rules快速多模态提取公式/表格精度低
六、下一步:接入向量数据库

转换后,使用 LangChain 切分 + 本地 embedding:

from langchain.text_splitter import MarkdownHeaderTextSplitter

headers_to_split_on = [
    ("#", "Header 1"),
    ("##", "Header 2"),
    ("###", "Header 3"),
]
splitter = MarkdownHeaderTextSplitter(headers_to_split_on=headers_to_split_on)

with open("./data/processed/paper.md", "r", encoding="utf-8") as f:
    md_text = f.read()

docs = splitter.split_text(md_text)  # 附带标题元数据
# 接下来:embedding (bge-m3) → upsert 到 Chroma/Qdrant/Milvus

Marker + 此管道,可在本地构建高质量 RAG 知识库

    您可能感兴趣的与本文相关内容

    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值