本文是LLM系列的文章,针对《Knowledge-tuning Large Language Models with Structured Medical Knowledge Bases for Reliable Response Generation in Chinese》的翻译。
摘要
大型语言模型(LLM)在一般领域的各种自然语言处理(NLP)任务中取得了显著的成功。然而,由于领域知识有限,LLM有时会产生对医学事实的幻觉反应。这些缺点对LLM在医疗环境中的使用构成潜在风险。为了应对这一挑战,我们提出了知识调优,它利用LLM的结构化医学知识库来有效地掌握领域知识,并促进可靠的响应生成。我们还发布了cMedKnowQA,这是一个由医学知识库构建的中文医学知识问答数据集,用于评估LLM的医学知识熟练程度。实验结果表明,与普通指令调优相比,使用cMedKnowQA进行知识调优的LLM在响应生成方面可以表现出更高的准确性,并为LLM的领域自适应提供了一种新的可靠方法。
引言
相关工作
方法
实验
讨论
结论
在本文中,我们讨论了LLM生成的应答中医学事实的知识不准确问题,这对医学领域的应用至关重要,尤其是在汉语中。我们提出了一种称为知识调优的新方法,该方法利用医学知识函数作为LLM的插件助手,以有效地掌握领域知识并提高响应生成的可靠性。通过在我们提出的中国医
文章探讨了大型语言模型在医疗领域因缺乏领域知识导致的问题,并提出知识调优方法,结合结构化医学知识库,增强LLM的响应生成准确性。cMedKnowQA数据集用于评估,实验显示这种方法提高了模型的可靠性和领域适应性。
已下架不支持订阅
599

被折叠的 条评论
为什么被折叠?



