- 博客(7)
- 收藏
- 关注
原创 GraphRAG 论文阅读
papergithubGraphRAG是微软开源的基于图的检索增强生成(RAG)方法,主要针对以查询为中心的摘要任务(Query-Focused Summarization, QFS)。QFS的目标是围绕用户提出的问题,生成相关信息摘要。简单说,QFS根据用户的查询,从多个信息源中提取与问题最相关的内容,并整合成清晰的答案或总结。举个例子:假设用户的查询为“电动车的优点是什么?”,QFS会从一个或多个文档中提取与电动车优点相关的信息,例如环保性、经济性和性能,然后加以总结并回答。
2024-09-27 18:38:58
1077
1
原创 Prompt技术综述
这篇Prompt技术综述是目前最新也是最全的一篇。作者从arXiv, Semantic Scholar,ACL上搜集整理了1,565篇Prompt(主要是hard prompts)相关的论文。覆盖的内容比较多,从常见的文本Prompt拓展到图片,视频,3D建模以及多模态,多语言等复杂场景的Prompt。从Prompt本身外展到应用系统,如Agent。文中也提到Prompt的Issues,在Prompt开发时可以多参考关注。
2024-06-21 10:40:38
2432
原创 论文阅读_4_prompt_《Active Prompting with Chain-of-Thought for Large Language Models》
结合具体任务的有效prompt对生成高质量的大模型回答十分重要。特别是在复杂问题的回答上,带有样例的COTPrompt推理,取得了显著效果。然而当前的COT依赖于人工标注的样本示例,针对不同任务,这些样例不一定有效。本文提出一种动态Prompt,基于具体任务示例的Prompt,让模型适应不同任务。我们提出一种解决方法,从特定任务查询的池子中决定哪些问题是最重要且最有助于(人工)标注的。借鉴于给予不确定性的主动学习思想,我们引入几种评价指标来表征不确定性,以便选择最不确定的问题进行注释。实验证明我们的方法有领
2024-03-29 11:10:44
687
1
原创 论文阅读_3_大模型记忆反思_《From LLM to Conversational Agent: A Memory Enhanced Architecturewith Fine-Tuning o》
提出RAISE( Reasoning and Acting through Scratchpad and Examples)框架,加强版的ReAct,增加一个双重(长+短记忆)的记忆组件。表明这种框架在复杂的多轮任务中,能够提高Agent的控制能力和适应能力。
2024-03-27 11:43:52
1805
1
原创 论文阅读_2_大模型记忆反思_《Self-Refine: Iterative Refinement with Self-Feedback》
像人一样,LLM也不能一次尝试就能产生最好的结果。受启发与人类精炼写作的过程,本文提出self-refine的方法。该方法LLM,通过内部的反馈和精炼机制来提升模型最初的输出结果。这个方法的主要idea是,用LLM先生成一个最初的输出,然后在用这个LLM对自己的结果做出评价然后根据评价来升华自己的最初的输出。self-refine不需要有监督训练数据,额外的训练,强化学习等等,只需要一个LLM同时作为,生成器,反馈器和精炼器。本文中在7个不同的任务中进行评价,从对话生成到数学推理。
2024-03-26 16:12:33
1640
1
原创 论文阅读_1_大模型记忆反思_《Reflexion: Language Agents with Verbal Reinforcement Learning》
(1)解决问题:强化Agent(非参数更新) 反思能力(2)解决方法:提出Reflexion框架,通过自然语言反馈而非更新参数来强化Agent。把任务反馈信号作为短时记忆,引导后续的决策。
2024-03-25 18:35:04
2801
1
原创 tensorflow 安装出现的问题
1.一直说找不到合适的版本 解决:pip install --upgrade --ignore-installed tensorflow用这个安装2.安装到中途一大片红色的意味不明的解决:多试几下就好了3.还有一个问题就是,我在终端用pip装好tensorflow和keras之类的,但是打开jupyter一直告诉我,找不到该模块。解决:这个跟路径有关系,在装了多个python环境的情况下...
2018-03-22 17:40:13
2298
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人