deepseek
一、文档
二、关键参数
- model,指定model=‘deepseek-chat’ 即可调用 DeepSeek-V3;指定 model=‘deepseek-reasoner’,即可调用 DeepSeek-R1
- max_tokens,最终回答的最大长度(不含思维链输出),默认为 4K,最大为 8K。
- temperature,采样温度,介于 0 和 2 之间。更高的值,如 0.8,会使输出更随机,而更低的值,如 0.2,会使其更加集中和确定。 我们通常建议可以更改这个值或者更改 top_p,但不建议同时对两者进行修改。
- stream, 设置为 true 来使用流式输出(非流式输出:整体响应完了一起输出,流式输出:一段一段地输出,用户体验更佳)
- frequency_penalty,介于 -2.0 和 2.0 之间的数字。如果该值为正,那么新 token 会根据其在已有文本中的出现频率受到相应的惩罚,降低模型重复相同内容的可能性。
- messages, 列表
– role 有system(系统消息是可选的)、user、assistant
三、实战
⚠️需先安装openai,指令如下:
/usr/bin/python3 -m pip install openai
3.1DeepSeek-R1
from openai import OpenAI
openai_api_key = "xxx"
openai_api_base = "https://tbnx.plus7.plus/v1"
client = OpenAI(api_key=openai_api_key,
base_url=openai_api_base)
messages = [{
"role": "user", "content": "9.11 and 9.8, which is greater?"}]
def chat(input