theme: orange
Chat Models
聊天模型使用LLM(大型语言模型)进行操作,但具有不同的接口,使用“消息”而不是原始文本输入/输出。LangChain 提供了与这些模型轻松交互的功能。
在聊天模型中,支持三种类型的消息:
- SystemMessage(系统消息) - 这设置了LLM的行为和目标。您可以在这里给出具体的指示,如:“扮演市场经理。” 或 “只返回JSON响应,不返回说明文本”
- HumanMessage(人类消息) - 这是您将用户提示输入并发送给LLM的地方
- AIMessage(AI消息) - 当将聊天记录传回LLM以供将来请求时,您可以在这里存储来自LLM的响应。
还有一个通用的 ChatMessage,它接受一个任意的“角色”输入,可以在需要除系统/人类/AI之外的其他内容的情况下使用。但通常情况下,您会使用上面提到的三种类型。
要使用它,您需要导入所使用集成的聊天模型。
python from langchain.chat_models import ChatOpenAI from langchain.schema import ( AIMessage, HumanMessage, SystemMessage )
然后,您需要初始化聊天代理。这个示例使用了 OpenAI 的聊天模型。
python chat = ChatOpenAI(temperature=0)
与LLM模型一样,这也有多个可以调整的设置,例如: