技术背景介绍
Pinecone 是一个功能强大的向量数据库,支持广泛的搜索和检索操作。混合搜索结合了密集向量和稀疏向量的优势,提供更精准的文档检索。本文将通过实际代码示例,展示如何使用 Pinecone 的混合搜索功能进行检索。
核心原理解析
混合搜索结合了密集(dense)和稀疏(sparse)向量搜索的优点。密集向量通过模型嵌入生成,适用于语义相似度,而稀疏向量则利用传统的文本处理技术如 TF-IDF,适用于关键词匹配。使用 Pinecone,可以轻松地实现这种混合检索。
代码实现演示
# 安装必需的 Pinecone 客户端库
%pip install --upgrade --quiet pinecone-client pinecone-text pinecone-notebooks
# 导入必要的库
import os
from pinecone import Pinecone, ServerlessSpec
from langchain_openai import OpenAIEmbeddings
from langchain_community.retrievers import PineconeHybridSearchRetriever
from pinecone_text.sparse import BM25Encoder
# 设置 API 密钥
os.environ["PINECONE_API_KEY"] = 'your-pinecone-api-key'
os.environ["OPENAI_API_KEY"] = 'your-openai-api-key'
# 初始化 Pinecone 客户端并创建索引
index_name = "langchain-pinecone-hybrid-search"
pc = Pinecone(api_key=os.environ["PINECONE_API_KEY"])
if index_name not in pc.list_indexes().names():
pc.create_index(
name=index_name,
dimension=1536,
metric="dotproduct",
spec=ServerlessSpec(cloud="aws", region="us-east-1"),
)
# 获取索引
index = pc.Index(index_name)
# 初始化嵌入和稀疏编码器
embeddings = OpenAIEmbeddings()
bm25_encoder = BM25Encoder().default()
# 自定义稀疏编码器的 TF-IDF 值并加载
corpus = ["foo", "bar", "world", "hello"]
bm25_encoder.fit(corpus)
bm25_encoder.dump("bm25_values.json")
bm25_encoder = BM25Encoder().load("bm25_values.json")
# 构建检索器
retriever = PineconeHybridSearchRetriever(
embeddings=embeddings, sparse_encoder=bm25_encoder, index=index
)
# 可选:向检索器中添加文本数据
retriever.add_texts(["foo", "bar", "world", "hello"])
# 使用检索器进行搜索
result = retriever.invoke("foo")
print(result[0])
应用场景分析
混合搜索适用于需要在大规模文档库中进行高效检索的场景,特别是在文档语义复杂多样的情况下,例如文档搜索、推荐系统和问答系统。
实践建议
- 合理选择嵌入和稀疏编码器,确保与目标应用匹配。
- 安装和配置 Pinecone 时注意 API 密钥和区域设置。
- 定期更新 TF-IDF 值以适应最新的语料库。
如果遇到问题欢迎在评论区交流。
—END—