1.Prompt
在 ChatGPT 推出并获得大量应用之后,简单而言,Prompt可以宽泛地理解为给大模型的输入指令(问题、要求等等)。其中值得注意的是,对于在概念上具有相同意义的一次输入,不同的Prompt会使大模型能力的发挥有所不同(即同一问题的不同问法大模型的回答会有好有坏),而大模型给我们的返回结果则被称为 Completion
(最初,Prompt 是 NLP(自然语言处理)研究者为下游任务设计出来的一种任务专属的输入模板)
2.Temperature
Temperature 参数一般取值在 0~1 之间,它反映了LLM 生成结果的随机性与创造性,Temperature越小,LLM回答的随机性越低,产生更保守、可预测的文本,Temperature越大,LLM回答的的随机性越高,会产生更有创意、多样化的文本,同时也更有可能产生错误内容,发生幻觉现象。
对于不同的问题与应用场景,根据对稳定性和创新性的需求,需要设置不同的 temperature。
3.System Prompt
与Prompt定义为单次用户的输入不同,System Prompt是一个“全局”概念,是对模型的一种初始化设置,这种设置会对在设置生效范围内大模型的每一个Completion产生影响,如设置大模型的回答风格(幽默,欢快,伤感...),方式等等,这意味着在不同的System Prompt设置下(其他基础条件均相同),相同的Prompt可能会产生不同的Completion