本文是LLM系列文章,针对《Zero-Shot Chain-of-Thought Reasoning Guided by Evolutionary Algorithms in Large Language Models》的翻译。
摘要
大型语言模型(LLM)通过应用零样本思维链(CoT)提示,在不同的任务中表现出了显著的性能,并表现出了令人印象深刻的推理能力。然而,由于句子前缀在预训练阶段的演变性质,在所有任务实例中使用相同CoT提示的现有零样本CoT提示方法可能不是最佳的。在本文中,我们介绍了一种新颖的零样本提示方法,该方法利用进化算法动态生成LLM的不同提示。我们的方法包括初始化两个CoT提示,基于LLM执行进化操作以创建不同的集合,并利用LLM为给定问题选择合适的CoT提示。此外,在所选CoT提示的指导下,重写操作增强了LLM对该问题的理解。在10个推理数据集上进行的大量实验表明,与GPT-3.5-turbo和GPT-4上当前的零样本CoT提示方法相比,我们提出的方法具有优越的性能。此外,深入的分析实验强调了我们的方法在各种推理任务中的适应性和有效性。