以下是模型参数的简介及实际应用示例:
1. 模型温度(Temperature)
作用:控制生成结果的随机性
- 低温(如0.2):输出保守,结果确定性高。适合事实回答。
- 高温(如1.2):输出更随机,更有创意。适合写诗或生成故事。
示例:
问:“描述一只猫”
低温回答:“猫是小型肉食哺乳动物,有胡须和尾巴。”
高温回答:“一只毛茸茸的橘猫在阳光下打盹,尾巴懒洋洋地扫过地毯。”
2. 多样性(Top-p / Top-k)
作用:限制候选词范围,平衡多样性与合理性
- Top-p(概率累计筛选):例如
top-p=0.9,仅保留概率总和90%的候选词。 - Top-k(固定候选数):例如
top-k=50,每步只从概率最高的50个词中选择。
示例:
问:“推荐一本书”
若top-k=10,可能只推荐《哈利波特》等常见书;若top-k=200,可能推荐偏小众书籍。
3. 重复惩罚(Repetition Penalty)
作用:降低重复内容概率
示例:
参数设为 1.5,提问“解释地球”时,模型不会反复使用“行星”一词。
4. 停止标识(Stop Tokens)
作用:触发模型停止生成的标识符
示例:
设停止符为 句号,问“写一句广告词”时,生成到第一个句号即停止。
5. 流式输出(Streaming)
作用:逐段生成结果而非一次性输出
示例:
聊天时逐字出现回答,类似打字效果。
6. 自定义参数
作用:调整模型的特定设置
示例:
设置 max_tokens=100 限制回答长度不超过100词。
7. 上下文(Context)
作用:历史对话记录,维持对话连贯性
示例:
用户先问“推荐电影”,再问“导演是谁?”,模型能通过上下文理解“电影”指前文提到的影片。
8. Tokens
作用:文本最小处理单位(1 token≈3/4单词)
示例:
句 “Hello!” → 1 token;中文句“你好”→ 2 tokens。
实际应用场景调整建议:
- 问答任务:低温(0.3)+ 低Top-p(0.5),减少错误。
- 创意文案:高温(1.0)+ 高Top-k(100),激发多样性。
- 长对话:启用流式输出 + 设置上下文窗口(如4096 tokens)。
522

被折叠的 条评论
为什么被折叠?



