A Data-Centric Approach To Generate Faithful and High Quality Patient Summaries with LLMs

828 篇文章

已下架不支持订阅

本文探讨了大型语言模型在根据医生笔记生成患者住院情况摘要的能力,以及训练数据如何影响摘要的准确性和质量。通过严格的评估协议,研究显示微调可以减少幻觉并保持信息相关性,而GPT-4在减少错误的同时能提供高质量的摘要。定量指标与摘要的忠实度和质量的相关性不强,且GPT-4表现出自动幻觉检测的潜力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《A Data-Centric Approach To Generate Faithful and High Quality
Patient Summaries with Large Language Models》的翻译。

一种以数据为中心的方法,使用大型语言模型生成真实、高质量的患者摘要

摘要

患者往往难以理解自己的住院情况,而医护人员提供解释的资源有限。在这项工作中,我们研究了大型语言模型基于医生笔记生成患者摘要的潜力,并研究了训练数据对生成摘要的忠实性和质量的影响。为此,我们开发了一个严格的幻觉标签协议,并让两位医学专家对100个真实世界的摘要和100个生成的摘要进行注释。我们表明,对无幻觉数据的微调有效地将Llama 2的幻觉从2.60减少到1.55,同时保留了相关信息。尽管这种影响仍然存在,但当用五个例子(0.70到0.40)提示时,GPT-4的影响要小得多。我们还使用无幻觉和改进的训练数据进行了定性评估。GPT-4即使在零样本设置中也显示出非常好的结果。我们发现,常见的量化指标与忠诚度和质量并没有很好的相关性。最后,我们测试了GPT-4的自动幻觉检测,这产生了有希望的结果。

1 引言

2 相关工作

3 数据集

4 方法

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值