langchain模块-模型

文档介绍了LangChain中使用的三种主要模型类型:大型语言模型(如LLMs),用于处理文本输入和输出;聊天模型,具有结构化的API,处理聊天消息交互;以及文本嵌入模型,将文本转化为浮点数列表的表示形式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

文档的这一部分涉及 LangChain 中使用的不同类型的模型。在此页面上,我们将在较高层次上介绍模型类型,但我们为每种模型类型提供了单独的页面。这些页面包含使用该模型的更详细的“操作方法”指南,以及不同模型提供商的列表。

LLMs

大型语言模型 (LLM) 是我们涵盖的第一类模型。这些模型将文本字符串作为输入,并返回文本字符串作为输出。

聊天模型

聊天模型是我们涵盖的第二种类型的模型。这些模型通常由语言模型支持,但它们的 API 更加结构化。具体来说,这些模型将聊天消息列表作为输入,并返回聊天消息。

文本嵌入模型

我们涵盖的第三种模型是文本嵌入模型。这些模型将文本作为输入并返回一个浮点数列表。

深入

 本文转载自AI资源分享交易平台promptcan波浪客langchain模块-模型 - promptcan波浪客

### 使用 LangChain 和 OpenAI 调用 GPT-4 的具体代码示例 以下是基于 LangChain 库和 `langchain_openai` 组件的一个完整代码示例,展示了如何通过 Prompt、Model 及 JsonOutputParser 来调用 GPT-4 模型。 #### 安装依赖 首先需要安装必要的 Python 包: ```bash pip install langchain openai jsonschema ``` #### 导入所需模块并设置 API Key 为了成功运行此代码,请确保已正确配置您的 OpenAI API Key。 ```python import os from langchain.prompts import PromptTemplate from langchain.llms.openai import OpenAI from langchain.output_parsers.json import JSONOutputParser os.environ["OPENAI_API_KEY"] = "your-api-key-here" ``` #### 创建 Prompt Template 定义一个模板化的提示语句,用于指导模型生成特定格式的结果。 ```python template = """You are an AI assistant that helps people find information. Given the following question, generate a response in JSON format with two keys: 'answer' and 'sources'. The 'answer' key should contain your answer to the user's question, while the 'sources' key contains any sources you used. Question: {question} Response (in JSON format):""" prompt = PromptTemplate(template=template, input_variables=["question"]) ``` #### 初始化 LLM 并指定 Model Name 为 gpt-4 这里我们明确指定了要使用的模型名称为 `gpt-4`[^2]。 ```python llm = OpenAI(model_name="gpt-4", temperature=0.7, max_tokens=150) ``` #### 配置 Output Parser 使用 `JsonOutputParser` 解析返回的数据结构,从而提取出符合预期的 JSON 对象。 ```python output_parser = JSONOutputParser() ``` #### 执行推理过程 将所有部分组合在一起执行实际的任务处理逻辑。 ```python def run_query(question): formatted_prompt = prompt.format(question=question) raw_output = llm(formatted_prompt) parsed_output = output_parser.parse(raw_output) return parsed_output if __name__ == "__main__": result = run_query("What is the capital of France?") print(result) ``` 当您运行这段脚本时,它会向 GPT-4 提问关于法国首都的问题,并期望得到一个包含答案及其来源链接在内的 JSON 结果。 --- ### 注意事项 以上示例假设用户已经具备有效的 OpenAI 访问权限并且网络环境允许访问远程服务。如果遇到任何错误消息或者异常行为,请检查官方文档获取更多支持信息。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值