引言
在问答应用程序中,显示用于生成答案的来源对用户非常重要。通过在每次回答过程中返回检索到的文档,是实现这一目标的最简单方法。本文将基于Lilian Weng的博客文章“LLM Powered Autonomous Agents”中的RAG教程,构建一个问答应用程序,并展示两种实现方式:
- 使用内置的
create_retrieval_chain,其默认返回来源。 - 使用简单的LCEL实现,展示其操作原理。
我们还将展示如何将来源信息结构化整合到模型响应中,使模型能够报告生成答案时所使用的具体来源。
主要内容
设置
依赖项
我们将使用OpenAI嵌入和Chroma向量存储。在此过程中,我们的演示适用于任何Embeddings、VectorStore或Retriever。
%pip install --upgrade --quiet langchain langchain-community langchainhub langchain-openai langchain-chroma bs4
需要设置环境变量OPENAI_API_KEY,可以直接设置,也可以从.env文件加载:
import getpass
import os
os.environ["OPENAI_API_KEY"] = getpass.getpass()
LangSmith
LangChain应用程序通常包含多个步骤和LLM调用。随着应用程序复杂度增加,能够检查链或代理中的具体操作变得至关重要。LangSmith是实现这一功能的最佳方式。
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_API_KEY"] = getpass.getpass()
使用create_retrieval_chain
选择一个LLM
以下是一个与来源结合的问答应用程序示例:
import bs4
from langchain.chains

最低0.47元/天 解锁文章
311

被折叠的 条评论
为什么被折叠?



