欢迎来到ChatGPT 开发人员提示工程课程(ChatGPT Prompt Engineering for Developers)!本课程将教您如何通过OpenAI API有效地利用大型语言模型(LLM)来创建强大的应用程序。
本课程由OpenAI 的Isa Fulford和 DeepLearning.AI 的Andrew Ng主讲,深入了解 LLM 的运作方式,提供即时工程的最佳实践,并演示 LLM API 在各种应用程序中的使用。
指南提示
在本课程中,您将练习两个提示原则及其相关策略,以编写大型语言模型的有效提示。
一、设置
1.1 加载 API 密钥和相关的 Python 库
在本课程中,我们提供了一些代码,用于为您加载 OpenAI API 密钥。
Input:
import openai
import os
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
openai.api_key = os.getenv('OPENAI_API_KEY')
1.2 辅助函数
在整个课程中,我们将使用 OpenAI 的 gpt-3.5-turbo 模型和聊天完成端点。
这个辅助函数将使您更容易使用提示,并查看生成的输出:
Input:
def get_completion(prompt, model="gpt-3.5-turbo"):
messages = [{
"role": "user", "content": prompt}]
response = openai.ChatCompletion.create(
model=model,
messages=messages,
temperature=0, # 这是模型输出的随机程度
)
return response.choices[0].message["content"]
二、提示原则
原则 1:编写清晰具体的说明
原则 2:给模型时间“思考”