本文是LLM系列文章,针对《Towards Generalist Prompting for Large Language Models by Mental Models》的翻译。
摘要
大型语言模型(LLM)在许多任务上都表现出了令人印象深刻的性能。然而,为了实现最佳性能,仍然需要专门设计的提示方法。这些方法要么依赖于需要一定水平的领域知识的特定任务的小样本示例,要么设计得很简单,但只在少数类型的任务中表现良好。在这项工作中,我们试图引入通才提示的概念,它的设计原则是在广泛的任务中实现最佳或接近最佳的性能,同时消除了手动选择和定制针对特定问题的提示的需要。此外,我们提出了MeMo(心理模型),这是一种创新的提示方法,设计简单,但有效地满足了广义提示的标准。MeMo将各种提示方法的核心提取到单个心理模型中,并允许LLM自主选择最适合问题的心理模型,在零样本环境中实现或接近STEM、逻辑推理和常识推理等不同任务的最先进结果。我们希望本文提出的见解将促进对LLM的多面手提示方法的进一步探索。
1 引言
2 心理模型提示
3 实验
4 相关工作
5 结论
在本文中,基于现有提示方法的局限性,我们引入了广义提示的概念。设计原则是在广泛的任务中实现最佳或接近最佳的性能,同时消除了手动选择和定制针对特定问题的提示的需要。作为对这一思想的探索,我们提出了MeMo,这是一种新的提示方法,设计简单,但有效

本文探讨了大型语言模型(LLM)如何通过心理模型提示(MeMo)实现通用性能,旨在减少对特定任务提示的依赖。MeMo提供了一种简单设计,能在零样本环境下,在STEM、逻辑和常识推理等任务中达到先进水平,促进LLM通用提示的研究。
订阅专栏 解锁全文
435

被折叠的 条评论
为什么被折叠?



