LLM之Agent(十二)| OpenAI Agent-Swarm简单入门

项目地址:https://github.com/openai/swarm

本文简单介绍一下如何使用Swarm:

一、首先需要安装环境(python3.10+)

# 创建python虚拟环境(可选)conda create -n python=3.10
pip install git+ssh://git@github.com/openai/swarm.git

二、设置OpenAI API​​​​​​​

import osos.environ['OPENAI_API_KEY'] =''

三、下面是一个handoff的例子​​​​​​​

from swarm import Swarm, Agent
client = Swarm()
english_agent = Agent(    name="English Agent",    instructions="You only speak English.",)
spanish_agent = Agent(    name
### 使用 LangChain 和 LangChain-OpenAI 进行 Prompt | Model | JSONOutputParser 链式调用 GPT-4 的具体示例 LangChain 是一种用于构建大型语言模型 (LLM) 应用程序的框架,它允许开发者轻松集成不同的组件来创建复杂的流水线。以下是使用 `langchain` 和 `langchain-openai` 实现链式调用 GPT-4 并解析其输出为 JSON 的方法。 #### 安装依赖库 首先需要安装必要的 Python 包: ```bash pip install langchain openai ``` #### 示例代码实现 下面是一个完整的代码示例: ```python from langchain.prompts import PromptTemplate from langchain.llms import OpenAI from langchain.chains import LLMChain from langchain.output_parsers.json import parse_json_markdown # 设置 OpenAI API 密钥和模型名称 import os os.environ["OPENAI_API_KEY"] = "your_openai_api_key_here" # 创建提示模板 prompt_template = """You are a helpful assistant. Given the following context, answer the question as truthfully as possible. Context: {context} Question: {question} Answer in JSON format with key 'answer'. Example: {"answer": "Your response here"}""" prompt = PromptTemplate(template=prompt_template, input_variables=["context", "question"]) # 初始化 GPT-4 模型 llm = OpenAI(model_name="gpt-4", temperature=0) # 构建链 chain = LLMChain(llm=llm, prompt=prompt) # 输入数据 input_data = { "context": "The capital of France is Paris.", "question": "What is the capital of France?" } # 执行链并获取响应 response = chain.run(input_data) # 解析 JSON 输出 parsed_response = parse_json_markdown(response) print(parsed_response) ``` 上述代码实现了以下功能: 1. **定义 Prompt Template**: 提供了一个结构化的输入模板,其中包含上下文 (`context`) 和问题 (`question`)。 2. **初始化 GPT-4 模型**: 使用 `OpenAI` 类指定模型名称为 `"gpt-4"`[^1]。 3. **构建 Chain**: 将 Prompt 和 LLM 绑定到一起形成一个可执行的工作流。 4. **运行 Chain**: 向工作流提供具体的输入数据,并接收来自 GPT-4 的响应。 5. **JSON 解析器**: 利用 `parse_json_markdown` 函数将返回的结果转换成标准的 Python 字典对象。 #### 关键点说明 - **Prompt Design**: 设计良好的提示对于获得预期结果至关重要。在此处,我们明确要求模型以特定格式(即 JSON)作答[^2]。 - **Error Handling**: 如果模型未能按照期望格式生成输出,则可能需要额外处理逻辑来捕获异常情况。 - **Performance Considerations**: 调整参数如温度 (`temperature`) 可影响生成质量与多样性;较低值倾向于更一致的回答而较高值则更具创造性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wshzd

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值