LLM输出本质是一个预测引擎,它的输出是基于概率的下一个最可能出现的token预测,因此提示词工程即引导模型预测最符合期望的token序列的过程。
LLM输出配置详解
1. 输出长度控制
生成更多令牌需要 LLM 进行更多计算,导致更高的能耗、可能更慢的响应时间以及更高的成本。
设置输出长度(Output length)
一个重要的配置设置是响应中要生成的令牌数量。生成更多令牌需要 LLM 进行更多计算,导致更高的能耗、可能更慢的响应时间以及更高的成本。
🚫关键误区:限制令牌数量 ≠ 内容简洁
减少 LLM 的输出长度并不会使模型在其创建的输出中变得风格或文本上更简洁,它只是导致 LLM 在达到限制时强制截断。
实例对比:
设置 max_tokens=20 时:
原本完整输出:人工智能的发展对教育领域产生了深远影响,主要体现在以下几个方面:个性化学习、智能评估、辅助教学...
截断后输出:人工智能(AI)如今已渗透到各行各业,极大地改变了我们的生活和工作方式。以下是当前AI的主要...
如何正确控制输出长度?
在提示中明确指令
❌ 错误:设置 max_tokens=50
✅正确:提示中加入"用2-3句话总结"
实践建议
- 快速问答:100-200 tokens
- 详细解析:500-1000 tokens
- 长文创作:1000+ tokens
2. 采样控制:温度、Top-K和Top-P
LLM并不是直接选择下一个令牌,而是输出一个概率分布——词汇表中的每个可能令牌都有其出现的概率。
这三个参数都是

最低0.47元/天 解锁文章
5479

被折叠的 条评论
为什么被折叠?



