DeepSeekAPI-Key获取与模型调用方法详解
一、DeepSeek V3模型的显著优势
- 性能卓越且成本低廉:DeepSeek V3模型性能与GPT 4o相当,但调用成本大幅降低,仅约为GPT 4o的5%。在价格方面,输入价格为GPT 4o的6%,输出价格为其3%。具体而言,DeepSeek V3输入价格为1元/100万token,输出价格为2元/100万token;若使用提示词缓存技术,缓存部分输入价格为0.1元/100万token 。与之对比,GPT 4o输入价格约18元/100万,输出价格约70多元/100万。
- 功能与调用风格高度相似:该模型支持function calling、提示词缓存和json output等功能,在调用风格上与OpenAI的GPT 4o完全一致,可使用OpenAI SDK进行开发。对于此前基于GPT模型开发的用户,仅需更改API key和base URL,其余代码无需修改,便能轻松实现向DeepSeek V3模型的无缝迁移。
- API调用不限速:DeepSeek V3的API调用不限速,若调用过程中出现问题,并非因为限速,而可能是服务器方面的原因。在实际使用中,该模型响应速度较快,在开发各类demo时,未出现被封禁或无响应的情况,整体使用体验顺畅。
二、DeepSeek V3 API接入详细步骤
- 注册账号并获取API key:访问DeepSeek官网的API key创建页面(https://platform.deepseek.com/api_keys )进行账号注册,并创建API key。新注册用户会获得约500万token价值10元的额度,足以满足实验需求。需注意,API key仅在创建时可见并可复制,务必妥善保管,防止泄露,否则可能会被官方禁用。
- 安装OpenAI库:在命令行中执行
pip install openai
命令安装OpenAI库,建议安装最新版本,目前1.0版本以上的调用方法基本相同。 - 实例化客户端:
① 调用GPT 4o模型示例:
from openai import OpenAI
# 实例化客户端,这里使用的是连接OpenAI服务器的反向代理地址和GPT 4o的API key
client = OpenAI(api_key="YOUR_OPENAI_API_KEY", base_url="https://ai.devtool.tech/proxy/v1")
# 调用GPT 4o - mini模型
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "你好,好久不见!"}
]
)
print(response.choices[0].message.content)
② 调用DeepSeek V3模型示例 :
from openai import OpenAI
# 实例化客户端,填入DeepSeek的API key和DeepSeek服务器地址
client = OpenAI(api_key="YOUR_DEEPSEEK_API_KEY", base_url="https://api.deepseek.com")
# 调用DeepSeek - chat模型,默认即DeepSeek V3
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "user", "content": "你好,好久不见!"}
]
)
print(response.choices[0].message.content)
三、DeepSeek V3模型调用关键注意事项
- 模型选择:当前,DeepSeek V3官方支持的模型包括
deepseek-chat
(对话模型)和deepseek-coder
(代码模型)。当选择deepseek-chat
时,默认使用的就是DeepSeek V3模型。 - 请求参数:利用
client.chat.completions.create
方法发起对话请求时,必须指定model
(模型名称)和messages
(对话内容)。其中,messages
是一个列表,列表中的每个元素都是一个包含role
(如user
代表用户输入)和content
(具体对话内容)的字典。
元素都是一个包含role
(如user
代表用户输入)和content
(具体对话内容)的字典。 - 响应结果:模型返回的
response
对象,其类型和内容结构与GPT 4o模型返回的一致。通过response.choices[0].message.content
可以获取模型生成的回复内容,同时,还能查看response
中的其他信息,如对话的详细情况、使用的token数量等,这些信息有助于了解对话过程和资源消耗情况。