Improving Medical Reasoning through Retrieval and Self-Reflection

828 篇文章

已下架不支持订阅

本文介绍Self-BioRAG框架,它针对生物医学领域,通过检索增强和自我反思提升大型语言模型的推理能力。在84k个生物医学指令集上训练,Self-BioRAG在三个医学问答基准数据集上平均提高了7.2%的性能,证明了领域特定组件的重要性。未来将探索特定领域反射token以增强知识评估和生成能力。

本文是LLM系列文章,针对《Improving Medical Reasoning through Retrieval and Self-Reflection with Retrieval-Augmented Large Language Models》的翻译。

利用检索增强的大语言模型通过检索和自我反思改进医学推理

摘要

最近的专有大型语言模型(LLM),如GPT-4,在应对生物医学领域的各种挑战方面取得了里程碑式的成就,从多项选择题到长形式生成。为了解决LLM的编码知识仍然无法处理的挑战,已经开发了各种检索增强生成(RAG)方法,通过从知识库中搜索文档并无条件地或选择性地将它们附加到LLM的输入以进行生成。然而,当将现有方法应用于不同领域的特定问题时,泛化能力差变得明显,导致获取不正确的文档或做出不准确的判断。在本文中,我们介绍了Self-BioRAG,这是一个可靠的生物医学文本框架,专门用于生成解释、检索特定领域的文档和自我反映生成的响应。我们利用84k个过滤的生物医学指令集来训练Self-BioRAG,该指令集可以使用定制的反射token来评估其生成的解释。我们的工作证明了特定于领域的组件,如检索器、与领域相关的文档语料库和指令集,对于遵守与领域有关的指令是必要的。使用三个主要的医学问答基准数据集,Self-BioRAG的实验结果表明,与参数大小为7B或更小的最先进的开放式基础模型相比,平均实现了7.2%的绝对改进,从而显著提高了性能。总的来说,我们分析了Self-BioRAG发现问题中的线索,在需要时检索相关文档,并了解如何像医学专家一样使用检索到的文档和编码知识中的信息进行回答。我们发布了用于训练框架组件和模型权重(7B和13B)的数据和代码,以增强生物医学和临床领域的能力。

1 引言

2 背景

3 Self-BioRAG

4 实验细节

已下架不支持订阅

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值