1. 安装所需的库
首先,你需要确保你的环境中安装了 openai
库。你可以通过 pip 来安装它:
pip install openai
2. 设置 API 密钥(可选)
如果访问 ChatGPT 需要设置密钥,如果访问本地模型不需要设置密钥!
对于ChatGPT密钥要从 OpenAI 的官方网站获取,要按 token 收费。一旦你有了 API 密钥,可以通过环境变量或直接在代码中设置它(虽然推荐使用环境变量以保持安全性)。
设置环境变量的方式取决于你的操作系统。例如,在 Unix/Linux/MacOS 上,你可以这样做:
export OPENAI_API_KEY='your-api-key-here'
或者在 Windows 的命令提示符下:
set OPENAI_API_KEY=your-api-key-here
如果你选择直接在代码中设置 API 密钥,请确保不要将密钥分享出去。
3. 编写代码
接下来是编写 Python 代码来与 OpenAI API 进行交互。以下是一个简单的例子,演示如何创建一个聊天请求并接收响应:
import os
from openai import OpenAI
# 初始化 OpenAI API 客户端
client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
# 定义对话的提示模板
prompt_template = "You are a helpful assistant. Please answer the following question: {question}"
# 创建对话实例
response = client.chat.completions.create(
model="gpt-3.5-turbo", # 使用的模型名称
messages=[{"role": "user", "content": prompt_template.format(question="What is the capital of France?")},
{"role": "assistant", "content": ""}], # 空内容留给模型生成回答
)
# 打印模型的回答
print(response.choices[0].message.content.strip())
这段代码做了以下几件事:
- 导入了必要的模块。
- 使用环境变量中的 API 密钥初始化了 OpenAI API 客户端。
- 定义了一个简单的提示模板。
- 调用了
chat.completions.create
方法,向指定的模型发送了一个消息列表,其中包含了用户的问题和一个空的助手回复。 - 最后,打印出模型生成的回答。
4. curl命令
Python 的 OpenAI 接口本质上也就是封装了 http/https 请求,对于本地的模型访问,还可以类似如下,使用 curl 命令访问:
curl http://127.0.0.1:8000/v1/chat/completions -H "Content-Type: application/json" -X POST -d '{"model": "llama3", "temperature": 0, "messages": [{"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你是谁"}]}'
上述访问的大模型服务,可以通过 vllm 拉起本地的模型,然后再访问大模型!
欢迎关注本人,我是喜欢搞事的程序猿; 一起进步,一起学习;
欢迎关注知乎/优快云:SmallerFL
也欢迎关注我的wx公众号(精选高质量文章):一个比特定乾坤