本文是LLM系列的文章,针对《Knowledge-tuning Large Language Models with Structured Medical Knowledge Bases for Reliable Response Generation in Chinese》的翻译。
摘要
大型语言模型(LLM)在一般领域的各种自然语言处理(NLP)任务中取得了显著的成功。然而,由于领域知识有限,LLM有时会产生对医学事实的幻觉反应。这些缺点对LLM在医疗环境中的使用构成潜在风险。为了应对这一挑战,我们提出了知识调优,它利用LLM的结构化医学知识库来有效地掌握领域知识,并促进可靠的响应生成。我们还发布了cMedKnowQA,这是一个由医学知识库构建的中文医学知识问答数据集,用于评估LLM的医学知识熟练程度。实验结果表明,与普通指令调优相比,使用cMedKnowQA进行知识调优的LLM在响应生成方面可以表现出更高的准确性,并为LLM的领域自适应提供了一种新的可靠方法。
引言
相关工作
方法
实验
讨论
结论
在本文中,我们讨论了LLM