跟着 Deepseek 提示词文档学习使用大模型

字数 1249,阅读大约需 7 分钟

在浏览 DeepSeek 官网 API 文档[1] 时,笔者发现了非常有用的资源,那就是 DeepSeek 官方出品的 提示词库[2]

589eb048cfc4e3342678a32369907bff.jpeg

该提示词库是给开发者使用的文档,适用所有兼容 OpenAI API 的大语言模型。事实基本所有开源的大语言模型,都支持 OpenAI 的 API 风格,所以该教程适用所有的模型。

角色

当我们和大模型对话/交互时,我们输入的内容会被包装成统一格式发送给大模型,格式为:

[
  {
    "role":"system",
    "content":"这里的内容会调整 LLM 的出厂设置"
},
{
    "role":"user",
    "content":"用户和 LLM 对话的内容"
}
]

它们的特点可以简单概括为:

系统提示词

用户提示词

是否必须

作用

定义 LLM 出厂设置

用户对话的内容

比如,当我问 LLM:“为什么天空是蓝色的?”,这句话作为用户提示词发送给大模型。

而当我希望 LLM 成为某个领域的专家时,就需要提供系统提示词了。很多软件都支持设置 LLM 的系统提示词,只是名称和用法会略有区别。

比如在 LobeChat 中,设置系统提示词的方法为"创建助手",然后在助手中设置系统提示词。

用户 (User) 提示词

代码生成

请帮我用 HTML 生成一个五子棋游戏,所有代码都保存在一个 HTML 中。

诗歌创作

模仿李白的风格写一首七律。飞机

其它

  1. 1. 散文写作

  2. 2. 代码改写

  3. 3. 代码解释

系统 (System) 提示词

系统提示词放到用户提示词中

这种方法适合单次使用或者调试系统提示词的场景,如果提示词调整稳定了,还是建议放在系统提示词中,提高复用。

我们以中英翻译专家为例

1. system

```
你是一个中英文翻译专家,将用户输入的中文翻译成英文,或将用户输入的英文翻译成中文。对于非中文内容,它将提供中文翻译结果。用户可以向助手发送需要翻译的内容,助手会回答相应的翻译结果,并确保符合中文语言习惯,你可以调整语气和风格,并考虑到某些词语的文化内涵和地区差异。同时作为翻译家,需将原文翻译成具有信达雅标准的译文。"信" 即忠实于原文的内容与意图;"达" 意味着译文应通顺易懂,表达清晰;"雅" 则追求译文的文化审美和语言的优美。目标是创作出既忠于原作精神,又符合目标语言文化和读者审美的翻译。
```

2. user

```
牛顿第一定律:任何一个物体总是保持静止状态或者匀速直线运动状态,直到有作用在它上面的外力迫使它改变这种状态为止。 如果作用在物体上的合力为零,则物体保持匀速直线运动。 即物体的速度保持不变且加速度为零。
```
121a933717a7eeca4bb4ae5d622acef3.jpeg

宣传标语生成

system:

你是一个宣传标语专家,请根据用户需求设计一个独具创意且引人注目的宣传标语,需结合该产品/活动的核心价值和特点,同时融入新颖的表达方式或视角。请确保标语能够激发潜在客户的兴趣,并能留下深刻印象,可以考虑采用比喻、双关或其他修辞手法来增强语言的表现力。标语应简洁明了,需要朗朗上口,易于理解和记忆,一定要押韵,不要太过书面化。只输出宣传标语,不用解释。

user:

请生成“希腊酸奶”的宣传标语

演示视频见 哔哩哔哩-使用 DeepSeek R1 推理模型生成宣传标语[3]

角色扮演

system:

请你扮演一个刚从美国留学回国的人,说话时候会故意中文夹杂部分英文单词,显得非常 fancy,对话中总是带有很强的优越感。

user:

美国的饮食还习惯么。

模型提示词生成

system:

你是一位大模型提示词生成专家,请根据用户的需求编写一个智能助手的提示词,来指导大模型进行内容生成,要求:
1. 以 Markdown 格式输出
2. 贴合用户需求,描述智能助手的定位、能力、知识储备
3. 提示词应清晰、精确、易于理解,在保持质量的同时,尽可能简洁
4. 只输出提示词,不要输出多余解释

user:

请帮我生成一个“Linux 助手”的提示词

其它

  1. 1. 内容分类

  2. 2. 结构化输出

  3. 3. 文案大纲生成

引用链接

[1] DeepSeek 官网 API 文档: https://api-docs.deepseek.com/zh-cn/
[2] 提示词库: https://api-docs.deepseek.com/zh-cn/prompt-library/
[3] 哔哩哔哩-使用 DeepSeek R1 推理模型生成宣传标语: https://www.bilibili.com/video/BV1GmNWeoE1r

<think>嗯,用户想了解如何配置和设置Dify模型参数。首先,我需要回忆一下Dify的相关文档和之前看过的资料。记得Dify是一个用于构建AI应用的开源平台,允许用户配置不同的模型和流程。根据引用[1],模型节点需要配置模型类型、prompt模板、输入变量,还要考虑是否启用多轮对话或思维链(CoT)等技巧。引用[2]和[3]提到创建应用和配置模型的具体步骤,比如在流程中添加模型节点,设置知识库等。 首先,用户可能需要从创建应用开始,然后进入模型配置。配置模型时,应该包括选择模型提供商(比如DeepSeek、通义等),设置API密钥,调整温度参数控制生成结果的随机性。然后设置提示词模板,插入变量,比如用户输入或上下文。接下来,可能涉及高级功能,比如多轮对话需要开启历史记录,或者使用思维链技巧拆分问题。测试和优化部分也很重要,用户需要测试不同参数的效果,并根据反馈调整prompt或参数。 用户可能遇到的问题包括如何选择适合的模型,怎样调整温度参数,或者如何集成知识库。需要确保步骤清晰,分点说明,让用户能一步步跟着操作。同时,要提醒注意事项,比如API密钥的安全,温度参数的影响,以及测试的重要性。最后,生成相关问题时,要考虑用户可能进一步想知道优化方法、多轮对话配置或与其他工具集成等。</think>### 如何配置和设置 Dify 模型参数 #### 一、创建应用与基础配置 1. **创建新应用** 在 Dify 控制台中,点击「创建应用」,选择「对话型应用」或「文本生成型应用」,输入应用名称和描述[^2]。 2. **选择模型提供商** 进入「模型配置」页面,支持 OpenAI、DeepSeek、通义千问等模型。例如选择 DeepSeek-R1 模型时,需填写 API 密钥和模型版本[^3]。 3. **设置基础参数** - **温度(Temperature)**:控制生成结果的随机性,范围 $[0, 2]$,数值越高结果越多样。 - **最大生成长度**:限制单次生成的最大 token 数。 ```python # 示例:模型参数配置逻辑(Dify 后台自动处理) model_config = { "provider": "deepseek", "api_key": "YOUR_API_KEY", "temperature": 0.8, "max_tokens": 1000 } ``` #### 二、提示词与高级功能 1. **编写 Prompt 模板** 在「提示词编排」中,使用变量插入动态内容。例如: ``` 你是一个客服助手,根据用户问题提供帮助。 用户输入:{{input}} 知识库上下文:{{context}} ``` 支持插入函数调用(如调用数据库)或外部知识库引用[^1]。 2. **启用高级技巧** - **多轮对话(History)**:勾选「保留对话历史」以支持上下文关联。 - **思维链(CoT)**:通过分段式 prompt 引导模型逐步推理,例如: ``` 问题:{{question}} 请分步骤思考:[step1]...[/step1] ``` #### 三、测试与优化 1. **实时调试** 在「预览」界面输入测试文本,观察模型输出效果。若结果不理想,可调整温度或修改 prompt 结构。 2. **集成知识库** 在「知识库」模块上传文档(如 PDF/Word),并在模型配置中关联该知识库,实现基于文档内容的问答。 #### 注意事项 - **API 密钥安全**:通过环境变量管理密钥,避免明文暴露。 - **参数影响**:温度值过高可能导致回答偏离主题,需根据场景平衡。 - **性能监控**:在「数据分析」页面查看请求延迟和错误率。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值