1. 文章简介
这篇文章是23年12月复旦发表的一篇关于prompt tuning的文章。
文中作为主要参照的Prompt Tuning的方法主要是CoT(Chain of Thought)以及SC(Self-Correction),前者主要是通过将问题拆解为多个中间问题进行逐一回答,后者则是通过反复迭代检查纠正自身的回答来获得一个经过反复检查的可靠回答。
但尽管如此,模型依然在某些问题上会出现错误地回答,不过纵使如此,文中发现,如下图所示,如果增加temperature然后让模型多次回答,模型还是有较大的可能性可以回答出正确答案的。

因此,文中提出了一个Exchange of Thought(EoT)的方法,具体思路上来说有点类似于ensemble方法,就是让模型进行多次独立回答,然后尝试从各个回答当中有效的挑选出最好的回答进行输出。
具体到实现上,让多个模型进行多次独立生成,然后将各自的输出结果进行整合拼接之后交给模型重新进行分析思考,然后生成各自去生成下一轮的回答,最终输出一个稳定且统一的回答。

上图就是EoT的一个整体的示意图,可以看到,相较于CoT的拆解式Reasoning,以及SC的迭代检查自己的answer,EoT主要还是让不同的模型独立回答,然后交流

文章介绍了Exchange-of-Thought(EoT)方法,一种通过跨模型通信增强大型语言模型能力的技术,通过对多个模型独立回答进行整合和讨论,提高回答正确性和稳定性。文中详细探讨了交流范式、终止条件、置信度评估及实验结果,展示了EoT在数学推理、常识推理和符号推理任务中的优势。
最低0.47元/天 解锁文章
1293

被折叠的 条评论
为什么被折叠?



