BeyondLLM 开源项目使用指南
beyondllm Build, evaluate and observe LLM apps 项目地址: https://gitcode.com/gh_mirrors/be/beyondllm
1. 项目介绍
BeyondLLM 是一个全方位的工具包,旨在简化 Retrieval-Augmented Generation (RAG) 系统的实验、评估和部署过程。该项目通过自动化集成、可定制的评估指标和支持多种大型语言模型(LLMs),帮助用户降低 LLM 幻觉风险并提高系统的可靠性。
2. 项目快速启动
安装
首先,通过 pip 安装 BeyondLLM:
pip install beyondllm
快速启动示例
以下是一个使用 BeyondLLM 创建一个与 YouTube 视频对话的 RAG 应用程序的示例。代码不到 8 行:
from beyondllm import source, retrieve, generator
import os
os.environ['GOOGLE_API_KEY'] = "Your Google API Key:"
data = source.fit("https://www.youtube.com/watch?v=oJJyTztI_6g", dtype="youtube", chunk_size=512, chunk_overlap=50)
retriever = retrieve.auto_retriever(data, type="normal", top_k=3)
pipeline = generator.Generate(question="what tool is video mentioning about", retriever=retriever)
print(pipeline.call())
3. 应用案例和最佳实践
案例1:使用默认 LLM 和 Embeddings
在这个案例中,我们使用 BeyondLLM 的默认 LLM 和 Embeddings 来构建一个定制的 RAG 系统:
from beyondllm import source, retrieve, generator
import os
os.environ['GOOGLE_API_KEY'] = "Your Google API Key:"
data = source.fit("https://www.youtube.com/watch?v=oJJyTztI_6g", dtype="youtube", chunk_size=512, chunk_overlap=50)
retriever = retrieve.auto_retriever(data, type="normal", top_k=3)
pipeline = generator.Generate(question="what tool is video mentioning about", retriever=retriever)
print(pipeline.call())
案例2:使用自定义 LLM 和 Embeddings
BeyondLLM 支持多种 Embeddings 和 LLMs,以下是一个使用自定义 LLM 和 Embeddings 的示例:
from beyondllm import source, retrieve, embeddings, llms, generator
import os
from getpass import getpass
os.environ['OPENAI_API_KEY'] = getpass("Your OpenAI API Key:")
data = source.fit("https://www.youtube.com/watch?v=oJJyTztI_6g", dtype="youtube", chunk_size=1024, chunk_overlap=0)
embed_model = embeddings.OpenAIEmbeddings()
retriever = retrieve.auto_retriever(data, embed_model, type="normal", top_k=4)
llm = llms.ChatOpenAIModel()
pipeline = generator.Generate(question="what tool is video mentioning about", retriever=retriever, llm=llm)
print(pipeline.call())
4. 典型生态项目
BeyondLLM 作为一个开源项目,与多个生态项目紧密结合,包括但不限于:
- HuggingFace: 提供丰富的预训练模型和工具。
- LlamaIndex: 用于构建和索引大规模数据集。
- OpenAI: 提供强大的 LLM 和 Embeddings 服务。
- Google Gemini: 用于高级数据分析和处理。
这些生态项目与 BeyondLLM 结合使用,可以进一步提升 RAG 系统的性能和灵活性。
beyondllm Build, evaluate and observe LLM apps 项目地址: https://gitcode.com/gh_mirrors/be/beyondllm
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考