Python和curl 如何使用OpenAI 接口访问LLM


1. 安装所需的库

首先,你需要确保你的环境中安装了 openai 库。你可以通过 pip 来安装它:

pip install openai

2. 设置 API 密钥(可选)

如果访问 ChatGPT 需要设置密钥,如果访问本地模型不需要设置密钥!

对于ChatGPT密钥要从 OpenAI 的官方网站获取,要按 token 收费。一旦你有了 API 密钥,可以通过环境变量或直接在代码中设置它(虽然推荐使用环境变量以保持安全性)。

设置环境变量的方式取决于你的操作系统。例如,在 Unix/Linux/MacOS 上,你可以这样做:

export OPENAI_API_KEY='your-api-key-here'

或者在 Windows 的命令提示符下:

set OPENAI_API_KEY=your-api-key-here

如果你选择直接在代码中设置 API 密钥,请确保不要将密钥分享出去。

3. 编写代码

接下来是编写 Python 代码来与 OpenAI API 进行交互。以下是一个简单的例子,演示如何创建一个聊天请求并接收响应:

import os
from openai import OpenAI

# 初始化 OpenAI API 客户端
client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))

# 定义对话的提示模板
prompt_template = "You are a helpful assistant. Please answer the following question: {question}"

# 创建对话实例
response = client.chat.completions.create(
    model="gpt-3.5-turbo",  # 使用的模型名称
    messages=[{"role": "user", "content": prompt_template.format(question="What is the capital of France?")},
              {"role": "assistant", "content": ""}],  # 空内容留给模型生成回答
)

# 打印模型的回答
print(response.choices[0].message.content.strip())

这段代码做了以下几件事:

  • 导入了必要的模块。
  • 使用环境变量中的 API 密钥初始化了 OpenAI API 客户端。
  • 定义了一个简单的提示模板。
  • 调用了 chat.completions.create 方法,向指定的模型发送了一个消息列表,其中包含了用户的问题和一个空的助手回复。
  • 最后,打印出模型生成的回答。

4. curl命令

Python 的 OpenAI 接口本质上也就是封装了 http/https 请求,对于本地的模型访问,还可以类似如下,使用 curl 命令访问:

curl http://127.0.0.1:8000/v1/chat/completions -H "Content-Type: application/json" -X POST -d '{"model": "llama3", "temperature": 0, "messages": [{"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你是谁"}]}'

上述访问的大模型服务,可以通过 vllm 拉起本地的模型,然后再访问大模型!


欢迎关注本人,我是喜欢搞事的程序猿; 一起进步,一起学习;

欢迎关注知乎/优快云:SmallerFL

也欢迎关注我的wx公众号(精选高质量文章):一个比特定乾坤

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SmallerFL

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值