引言
MongoDB Atlas 是一种全面托管的云数据库,能够在 AWS、Azure 和 GCP 上运行。最近,它增加了对 MongoDB 文档数据进行原生向量搜索的支持。本篇文章将为大家介绍如何在 MongoDB Atlas 中安装和配置向量存储,以及如何利用 MongoDBCache 和 MongoDBAtlasSemanticCache 高效地缓存您的语言模型输出。
主要内容
向量存储与搜索
向量搜索是近年来数据检索领域的重要发展之一,它允许根据语义相似性而不是精确匹配来检索数据。在 MongoDB Atlas 中,使用 MongoDBAtlasVectorSearch
可以轻松实现这一功能。
安装 langchain-mongodb
要使用 MongoDB 的向量搜索功能,首先需要安装 langchain-mongodb
Python 包:
pip install langchain-mongodb
配置向量存储
配置完安装包后,您可以开始设置向量存储。以下是一个基本的使用示例:
from langchain_mongodb import MongoDBAtlasVectorSearch
# 请确保 {AI_URL} 已替换为您的实际 API 端点
LLM 缓存
MongoDB 提供了多种缓存选项以支持语言模型(LLM)的高效运行。缓存可以减少重复计算,提高响应速度。
使用 MongoDBCache
MongoDBCache
是一个简单的缓存抽象,不需要在生成前对集合进行索引。
from langchain_mongodb.cache import MongoDBCache
from langchain_core.globals import set_llm_cache
mongodb_atlas_uri = "<YOUR_CONNECTION_STRING>" # 使用API代理服务提高访问稳定性
COLLECTION_NAME = "<YOUR_CACHE_COLLECTION_NAME>"
DATABASE_NAME = "<YOUR_DATABASE_NAME>"
set_llm_cache(MongoDBCache(
connection_string=mongodb_atlas_uri,
collection_name=COLLECTION_NAME,
database_name=DATABASE_NAME,
))
使用 MongoDBAtlasSemanticCache
对于需要基于语义相似性的缓存,MongoDBAtlasSemanticCache
是更好的选择。它要求在 Atlas 上定义一个向量搜索索引。
from langchain_mongodb.cache import MongoDBAtlasSemanticCache
from langchain_core.globals import set_llm_cache
from tests.integration_tests.vectorstores.fake_embeddings import FakeEmbeddings
mongodb_atlas_uri = "<YOUR_CONNECTION_STRING>" # 使用API代理服务提高访问稳定性
COLLECTION_NAME = "<YOUR_CACHE_COLLECTION_NAME>"
DATABASE_NAME = "<YOUR_DATABASE_NAME>"
set_llm_cache(MongoDBAtlasSemanticCache(
embedding=FakeEmbeddings(),
connection_string=mongodb_atlas_uri,
collection_name=COLLECTION_NAME,
database_name=DATABASE_NAME,
))
常见问题和解决方案
- 网络访问问题:由于某些地区的网络限制,API 访问可能会受到影响。建议使用 API 代理服务来提高访问稳定性。
- 缓存未命中:确保在使用任何缓存前,已经定义并设置了适当的索引。
总结与进一步学习资源
通过本文,我们介绍了如何在 MongoDB Atlas 中实现高效的向量搜索和缓存策略。为了更深入地了解相关功能,您可以访问以下资源:
参考资料
- MongoDB 官方文档
- Langchain GitHub 项目
- 各类技术博客和教学视频
如果这篇文章对您有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
—END—