路由查询引擎
概述
在本教程中,我们定义了一个自定义路由查询引擎,该引擎从多个候选查询引擎中选择一个来执行查询。
安装依赖
首先,我们需要安装 LlamaIndex:
%pip install llama-index-embeddings-openai
%pip install llama-index-llms-openai
!pip install llama-index
在 Jupyter Notebook 中,我们需要应用 nest_asyncio 以允许嵌套的异步查询:
import nest_asyncio
nest_asyncio.apply()
设置全局模型:
import os
os.environ["OPENAI_API_KEY"] = "sk-..."
from llama_index.llms.openai import OpenAI
from llama_index.embeddings.openai import OpenAIEmbedding
from llama_index.core import Settings
Settings.llm = OpenAI(model="gpt-3.5-turbo-1106", temperature=0.2)
Settings.embed_model = OpenAIEmbedding(model="text-embedding-3-small")
加载数据
将文档转换为节点,并插入到文档存储中:
from llama_index.core import SimpleDirectoryReader
# 加载文档
documents = SimpleDirectoryReader("../data/paul_graham").load_data()
from llama_index.core import Settings
# 初始化设置(设置分块大小)
Settings.chunk_
路由查询引擎实践

最低0.47元/天 解锁文章
1903

被折叠的 条评论
为什么被折叠?



