一、简介
LangGraph是LangChain、LangServe和LangSmith系列的最新成员,旨在使用LLM构建生成式人工智能应用程序。请记住,所有这些都是独立的包,必须单独进行pip安装。
在深入学习LangGraph之前,需要了解LangChain的两个主要概念。
1. 链: 围绕LLM编写的程序,用于执行任务,例如自动SQL编写或NER提取链等。请注意,链不能用于任何其他任务(甚至不能用于一般用例),如果尝试这样做,可能会损坏链。链中要遵循的步骤是预定义的,不可灵活调整。
2. 代理: 链的更加灵活版本,代理通常是启用第三方工具(例如谷歌搜索、YouTube)的LLM,由LLM本身决定下一步如何解决给定的查询。
现在,当处理现实世界的问题时,一个常见的问题是希望找到介于链和代理之间的解决方案。即不像链那样硬编码,但也不像代理那样完全由LLM驱动。
二、LangGraph
LangGraph是以LangChain为核心,用于创建工作流程中的循环图的工具。因此,我们假设以下示例:
你希望在知识库上搭建一个基于RAG的检索系统。现在,你希望引入这样一种情况:如果RAG的输出未满足特定质量要求,代理/链应该再次检索数据,但这次是自行更改提示。并且重复此过程,直到达到质量阈值为止。
使用LangGraph可以实现这种循环逻辑。这只是一个示例,使用LangGraph还可以做更多事情。
注: 可以将其视为向链中引入循环逻辑,使其成为循环链。
- LangGraph对于构建Autogen或MetaGPT等多代理应用程序至关重要。
顾名思义,LangGraph具有一般图形所具有的所有组件,例如节点、边等,接下来通过一个示例来了解。
三、使用LangGraph改善RAG
在此示例中,希望将RAG系统在数据库中的最终输出减少到不超过30个字符。如果输出长度大于30个字符,则希望引入循环,使用不同的提示再次尝试,直到长度小于30个字符为止。这是一个演示目的的基本逻辑。你甚至可以实现复杂的逻辑来改善RAG结果。
我们将创建的图形如下所示。
此处使用的版本为 langchain=0.0.349, openai=1.3.8, langgraph===0.0.26。
3.1 首先,让我们导入重要的内容并初始化LLM。这里使用的是OpenAI API,但你也可以使用其他LLM。
from typing import Dict, TypedDict, Optional
from langgraph.graph import StateGraph, END
from langchain.vectorstores import Chroma
from langchain.chains import RetrievalQA
from langchain.llms import OpenAI
from langchain.embeddings.openai import OpenAIEmbeddings
llm = OpenAI(openai_api_key='your API')
接下来,我们将定义一个StateGraph。
class GraphState(TypedDict):
question: Optional[str] = None
classification: Optional[str] = None
response: Optional[str] = None
length: Optional[int] = None
greeting: Optional[str] = None
workflow = StateGraph(GraphState)
什么是StateGraph?
StateGraph是任何LangGraph流程的核心,它存储了在执行工作流程时我们将存储的各种变量的状态。在本例中,我们有5个变量,其值在执行图形时将进行更新,并将与所有边和节点共享。
3.2 接下来,让我们从现有向量数据库中初始化一个RAG检索链。代码已在以下视频中进行了解释。
def retriever_qa_creation():
embeddings = OpenAIEmbeddings()
db = Chroma(embedding_function=embeddings,persist_directory='/database',collection_name='details')
qa = RetrievalQA.from_chain_type(llm=llm, chain_type="stuff", retriever=db.as_retriever())
return qa
rag_chain = retriever_qa_creation()
3.3 接下来,我们将向该图形添加节点。
def classify(question):
return llm("classify intent of given input as greeting or not_greeting. Output just the class.Input:{}".format(question)).strip()
def classify_input_node(state):
question = state.get('question', '').strip()
classification = classify(question)
return {"classification": classification}
def handle_greeting_node(state):
return {"greeting": "Hello! How can I help you today?"}
def handle_RAG(state):
question = state.get('question', '').strip()
prompt = question
if state.get("length")<30:
search_result = rag_chain.run(prompt)
else:
search_result = rag_chain.run(prompt+'. Return total count only.')
return {"response": search_result,"length":len(search_result)}
def bye(state):
return{"greeting":"The graph has finished"}
workflow.add_node("classify_input", classify_input_node)
workflow.add_node("handle_greeting", handle_greeting_node)
workflow.add_node("handle_RAG", handle_RAG)
workflow.add_node("bye", bye)
这需要一些解释。
- 每个节点都是一个Python函数,它可以:
①读取任何状态变量。
②更新任何状态变量。在这种情况下,每个节点的返回函数都会更新某个或某些状态变量的状态/值。
- 使用
state.get()
来读取任何状态变量。 handle_RAG
节点可以帮助我们实现我们希望的循环自定义逻辑。如果输出的长度<30,则使用提示符A;否则使用提示符B。对于第一种情况(当RAG节点尚未执行时),我们将传递length=0
,并提供一个提示。
3.4 接下来,我们将添加入口点和边缘。
workflow.set_entry_point("classify_input")
workflow.add_edge('handle_greeting', END)
workflow.add_edge('bye', END)
在上述的代码片段中,
- 我们向图中添加了一个入口点,即无论输入提示是什么,都会执行的第一个节点函数。
- A节点和B节点之间的边界定义了在节点A之后执行节点B。在这种情况下,如果在我们的工作流中出现了
handle_greeting
或bye
,则图形应该END
(一个特殊的节点来终止工作流)。
3.5 接下来,让我们添加条件边界。
def decide_next_node(state):
return "handle_greeting" if state.get('classification') == "greeting" else "handle_RAG"
def check_RAG_length(state):
return "handle_RAG" if state.get("length")>30 else "bye"
workflow.add_conditional_edges(
"classify_input",
decide_next_node,
{
"handle_greeting": "handle_greeting",
"handle_RAG": "handle_RAG"
}
)
workflow.add_conditional_edges(
"handle_RAG",
check_RAG_length,
{
"bye": "bye",
"handle_RAG": "handle_RAG"
}
)
条件边界可根据条件(例如if-else
)在两个节点之间进行选择。在创建的两个条件边界中:
第一个条件边界
当遇到
classify_input
时,根据decide_next_node
函数的输出选择handle_greeting
或handle_RAG
。第二个条件边界
如果遇到
handle_RAG
,则根据check_RAG_length
条件选择handle_RAG
或bye
。
3.6 编译并调用提示。初始时保持length
变量设置为0。
app = workflow.compile()
app.invoke({'question':'Mehul developed which projects?','length':0})
# 输出
{'question': 'Mehul developed which projects?',
'classification': 'not_greeting',
'response': ' 4',
'length': 2,
'greeting': 'The graph has finished'}
对于上述提示,图形流程如下所示:
classify_input
: 情感将为not_greeting
。
由于第一个条件边界,移至handle_RAG
。
由于length=0
,使用第一个提示并检索答案(总长度将大于30)。
由于第二个条件边界,再次移至handle_RAG
。
由于length>30
,使用第二个提示符。
由于第二个条件边界,移至bye
。
END
。
如果没有使用LangGraph:
rag_chain.run("Mehul developed which projects?")
# 输出
"Mehul developed projects like ABC, XYZ, QWERTY. Not only these, he has major contribution in many other projects as well at OOO organization"
3.7 下一个输入。
app.invoke({'question':'Hello bot','length':0})
# 输出
{'question': 'Hello bot',
'classification': 'greeting',
'response': None,
'length': 0,
'greeting': 'Hello! How can I help you today?'}
这里的流程会更简单。
classify_input
: 情感将为greeting
。
由于第一个条件边界,移至handle_greeting
。
END
。
虽然我在这里应用的条件相当简单,但通过添加更复杂的条件,这个框架可以很容易地用于改进你的结果。
关于Python学习指南
学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后给大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!
包括:Python激活码+安装包、Python web开发,Python爬虫,Python数据分析,人工智能、自动化办公等学习教程。带你从零基础系统性的学好Python!
👉Python所有方向的学习路线👈
Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。(全套教程文末领取)
👉Python学习视频600合集👈
观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
温馨提示:篇幅有限,已打包文件夹,获取方式在:文末
👉Python70个实战练手案例&源码👈
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
👉Python大厂面试资料👈
我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
👉Python副业兼职路线&方法👈
学好 Python 不论是就业还是做副业赚钱都不错,但要学会兼职接单还是要有一个学习规划。
👉 这份完整版的Python全套学习资料已经上传,朋友们如果需要可以扫描下方优快云官方认证二维码或者点击链接免费领取【保证100%免费
】
