paper:https://arxiv.org/pdf/2308.09687.pdf
code:https://github.com/spcl/graph-of-thoughts
0 Abstract
- 不同于以往的CoT和ToT,文章提出了GoT,将LLM生成的信息构建为任意图:
- 顶点:LLM thoughts(信息单元)
- 边:顶点之间的依赖
- GoT的优势:
- 将任意LLM thoughts【LLM对于给定prompt的回答】组合成协同结果,提炼模型本质,即让LLM更自由的去组合思想,获得答案;
- 相比sota实现了点和效率的双重提升;
- 作者认为思维图推导的方式更接近人类思维,可以辅助LLM解决更为复杂的问题。
1 Introduction
-
提示工程(prompt engineering)对LLM非常重要:in-context learning,zero-shot prompt…
- CoT/CoT-SC:提示解决问题的中间步骤;
- ToT:生成多路解决方案,具有从次优解决方案回溯的功能(DFS,BFS搜索)【作者提出,这种方案在LLM的思维过程中强加了树的结构,会限制模型的推理能力】;
- GoT:更接近人类思维过程:每个推理步骤有多于1条入边,支持链路合并,这些是CoT和ToT做不到的。
![[图片]](https://i-blog.csdnimg.cn/blog_migrate/10f83420d98bdd47854c79893294f65f.png)
-
应用GoT到LLM的挑战与解决方案:
- 挑战:每个任务最优的图结构
没有检索到标题

文章介绍了一种新的框架GoT,它利用图论构建LLM的信息组合,提高模型的灵活性和效率。GoT通过非树形结构模拟人类思维过程,挑战了传统的CoT和ToT。文中探讨了如何应用GoT解决排序、集合操作、关键词计数和文档合并等问题,展示了其在性能和速度上的优势。
最低0.47元/天 解锁文章
1620

被折叠的 条评论
为什么被折叠?



