theme: orange
Chat Models
聊天模型使用LLM(大型语言模型)进行操作,但具有不同的接口,使用“消息”而不是原始文本输入/输出。LangChain 提供了与这些模型轻松交互的功能。
在聊天模型中,支持三种类型的消息:
- SystemMessage(系统消息) - 这设置了LLM的行为和目标。您可以在这里给出具体的指示,如:“扮演市场经理。” 或 “只返回JSON响应,不返回说明文本”
- HumanMessage(人类消息) - 这是您将用户提示输入并发送给LLM的地方
- AIMessage(AI消息) - 当将聊天记录传回LLM以供将来请求时,您可以在这里存储来自LLM的响应。
还有一个通用的 ChatMessage,它接受一个任意的“角色”输入,可以在需要除系统/人类/AI之外的其他内容的情况下使用。但通常情况下,您会使用上面提到的三种类型。
要使用它,您需要导入所使用集成的聊天模型。
python from langchain.chat_models import ChatOpenAI from langchain.schema import ( AIMessage, HumanMessage, SystemMessage ) 然后,您需要初始化聊天代理。这个示例使用了 OpenAI 的聊天模型。
python chat = ChatOpenAI(temperature=0)
与LLM模型一样,这也有多个可以调整的设置,例如:
利用LangChainModels进行聊天交互:ChatModels详解,

本文介绍了如何使用LangChain的ChatModels进行基于LLM的聊天交互,包括不同类型的系统消息、人类消息和AI消息,以及如何设置参数和传递消息以获取响应。文章还展示了如何通过批量处理来提高效率。
最低0.47元/天 解锁文章
2346

被折叠的 条评论
为什么被折叠?



