[如何处理长文本中的信息提取:实用指南]

如何处理长文本中的信息提取:实用指南

在处理PDF等文件时,你可能会遇到超过语言模型上下文窗口长度的文本。为处理这些文本,以下几种策略值得考虑:

  • 更换LLM:选择支持更大上下文窗口的不同语言模型。
  • 暴力法:将文档分块,并从每个块中提取内容。
  • RAG:将文档分块,索引块,并只从看似“相关”的部分块中提取内容。

请注意,这些策略有不同的权衡,最佳策略可能取决于你设计的应用程序。

本文将展示如何实现策略二和三。

设置

我们需要一些示例数据!让我们下载维基百科上的一篇关于汽车的文章,并将其加载为LangChain文档。

import re
import requests
from langchain_community.document_loaders import BSHTMLLoader

# 下载内容
response = requests.get("https://en.wikipedia.org/wiki/Car")
# 将内容写入文件
with open("car.html", "w", encoding="utf-8") as f:
    f.write(response.text)
# 使用HTML解析器加载内容
loader = BSHTMLLoader("car.html")
document = loader.load()[0]
# 清理代码
document.page_content = re.sub("\n\n+", "\n", document.page_content)

print(len(document.page_content))  # 输出文章长度

定义提取架构

我们将使用Pydantic定义我们想要提取的信息架构:例如,包含年份和描述的“关键发展”列表。

from typing import List
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.pydantic_v1 import BaseModel, Field

class KeyDevelopment(BaseModel):
    year: int = Field(..., description="The year of the development.")
    description: str = Field(..., description="What happened in this year?")
    evidence: str = Field(..., description="The sentence(s) from which the information was extracted.")

class ExtractionData(BaseModel):
    key_developments: List[KeyDevelopment]

prompt = ChatPromptTemplate.from_messages([
    ("system", "You are an expert at identifying key historic development in text."),
    ("human", "{text}"),
])

创建一个提取器

选择支持工具调用功能的LLM。以下是OpenAI的示例设置:

import os
from langchain_openai import ChatOpenAI

llm = ChatOpenAI(model="gpt-4-0125-preview", temperature=0)

extractor = prompt | llm.with_structured_output(schema=ExtractionData, include_raw=False)

暴力法

将文档分割成LLM上下文窗口可以容纳的块。

from langchain_text_splitters import TokenTextSplitter

text_splitter = TokenTextSplitter(chunk_size=2000, chunk_overlap=20)
texts = text_splitter.split_text(document.page_content)

并行提取内容:

first_few = texts[:3]

extractions = extractor.batch(
    [{"text": text} for text in first_few],
    {"max_concurrency": 5},
)

合并结果:

key_developments = []
for extraction in extractions:
    key_developments.extend(extraction.key_developments)

print(key_developments[:10])

基于RAG的方法

这个方法关注相关块,而非从每个块提取信息。

from langchain_community.vectorstores import FAISS
from langchain_openai import OpenAIEmbeddings

texts = text_splitter.split_text(document.page_content)
vectorstore = FAISS.from_texts(texts, embedding=OpenAIEmbeddings())

retriever = vectorstore.as_retriever(search_kwargs={"k": 1})

rag_extractor = {
    "text": retriever | (lambda docs: docs[0].page_content)
} | extractor

results = rag_extractor.invoke("Key developments associated with cars")

for key_development in results.key_developments:
    print(key_development)

常见问题和解决方案

不同方法在成本、速度和准确性方面各有利弊:

  • 分块可能导致信息横跨多个块,无法提取。
  • 大的块重叠可能导致信息重复提取,需准备去重。
  • LLM可能捏造数据。使用暴力法需警惕虚假数据。

总结和进一步学习资源

使用上述策略可以有效处理长文本中的信息提取。根据具体需求选择合适的方法,并考虑使用API代理服务以提高访问稳定性。

进一步学习资源:

参考资料

  1. OpenAI API文档
  2. LangChain官方文档

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

—END—

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值