使用Rockset实现实时向量搜索与分析:LangChain环境下的实践指南

老铁们,今天我们来聊一聊如何利用Rockset在LangChain中实现实时向量搜索和分析。Rockset是一款为云端构建的实时搜索和分析数据库,能够以低延迟、高并发的方式处理大规模的搜索查询。Rockset的独特之处在于其Converged Index™技术,它能够高效存储向量嵌入,因此在处理实时更新的流式数据时显得尤为强大。

技术背景介绍

Rockset不仅支持元数据过滤,还能进行实时数据摄取处理。我们将在这篇文章中运用Rockset作为LangChain中的向量存储器,帮助大家快速上手。使用之前,确保你已经拥有一个Rockset账户并获取了API密钥,注册可以从Rockset官网开始。先安装langchain-community库来启用与Rockset的整合服务:

pip install -qU langchain-community

原理深度解析

在Rockset中创建一个集合(例如langchain_demo),将写入API设为数据源。运用以下数据摄取转换以标记嵌入字段,并优化性能和存储:

SELECT _input.* EXCEPT(_meta), 
VECTOR_ENFORCE(_input.description_embedding, 1536, 'float') as description_embedding 
FROM _input

这里我们使用了OpenAI的text-embedding-ada-002模型生成向量嵌入,长度为1536。

实战代码演示

  1. 定义关键变量

首先,我们需要设置环境变量来连接Rockset API:

import os
import rockset

ROCKSET_API_KEY = os.environ.get("ROCKSET_API_KEY")
ROCKSET_API_SERVER = rockset.Regions.usw2a1
rockset_client = rockset.RocksetClient(ROCKSET_API_SERVER, ROCKSET_API_KEY)

COLLECTION_NAME = "langchain_demo"
TEXT_KEY = "description"
EMBEDDING_KEY = "description_embedding"
  1. 准备文档

接着,加载文档并分割文本:

from langchain_community.document_loaders import TextLoader
from langchain_community.vectorstores import Rockset
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import CharacterTextSplitter

loader = TextLoader("../../how_to/state_of_the_union.txt")
documents = loader.load()
text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0)
docs = text_splitter.split_documents(documents)
  1. 插入文档

使用OpenAI的嵌入模型生成嵌入并插入到Rockset:

embeddings = OpenAIEmbeddings()
docsearch = Rockset(
    client=rockset_client,
    embeddings=embeddings,
    collection_name=COLLECTION_NAME,
    text_key=TEXT_KEY,
    embedding_key=EMBEDDING_KEY,
)

ids = docsearch.add_texts(
    texts=[d.page_content for d in docs],
    metadatas=[d.metadata for d in docs],
)
  1. 搜索相似文档

执行相似性搜索并输出结果:

query = "What did the president say about Ketanji Brown Jackson"
output = docsearch.similarity_search_with_relevance_scores(
    query, 4, Rockset.DistanceFunction.COSINE_SIM
)
print("output length:", len(output))
for d, dist in output:
    print(dist, d.metadata, d.page_content[:20] + "...")
  1. 带过滤条件搜索
output = docsearch.similarity_search_with_relevance_scores(
    query,
    4,
    Rockset.DistanceFunction.COSINE_SIM,
    where_str="{} NOT LIKE '%citizens%'".format(TEXT_KEY),
)
print("output length:", len(output))
for d, dist in output:
    print(dist, d.metadata, d.page_content[:20] + "...")
  1. 删除插入的文档(可选)

如果需要删除文档,使用文档ID来执行:

docsearch.delete_texts(ids)

优化建议分享

在使用Rockset进行高并发查询时,建议结合代理服务以提高稳定性。这波操作可以说是相当丝滑,尤其在处理动态数据时,Rockset的实时处理能力确实不容小觑。

补充说明和总结

今天我们成功地创建了一个Rockset集合,插入了带有OpenAI嵌入的文档,并进行了相似性搜索。对于想要进一步掌握向量存储概念的老铁们,可以关注相关指南保持更新。说白了,用Rockset结合大模型实现搜索分析确实方便又高效。

今天的技术分享就到这里,希望对大家有帮助。开发过程中遇到问题也可以在评论区交流~

—END—

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值