
论文链接:2023.12-https://arxiv.org/pdf/2312.06185.pdf
1.Background & Motivation
目前生成式的语言模型,如ChatGPT等在通用领域获得了巨大的成功,但在专业领域,由于缺乏相关事实性知识,LLM往往会产生不准确的回复(即幻觉)。许多研究人员企图通过外部知识注入提高LLM在专业领域的表现,但许多最先进的llm都不是开源的,这使得仅向模型api注入知识具有挑战性。
研究发现KGs中存储的大量事实知识有可能显著提高LLM反应的准确性,所以解决上述问题的一个可行方法是将知识图(KGs)集成到LLM中。在此基础上本文提出了一个向LLM的进行黑盒知识注入框架KnowGPT。KnowGPT包括两部分:①利用深度强化学习(RL)从知识图(KGs)中提取相关知识;②并使用多臂赌博机(MAB)为每个问题选择最合适的路径抽取策略和提示。

现有的KG+LMs的方法有很多:

但许多最先进的LLM只能通过黑盒调用,即只能通过提交文本输入来检索模型响应,而无法访问模型细节。因而无法使用上述的白盒知识注入技术。(尽管白盒方法可以应用于开源LLMs,如BLOOM和LLaMA,但由于更新模型权重,往往会产生显著的计算成本。)因此,本文关注:能否开发一个黑盒知识注入框架,能够有效地将KG集成到仅使用API的LLM中?
在解决该问题时需要关注两个挑战:①如何检索KG;②如何编码、利用检索到的信息。
2.问题定义
给定一个问题上下文 Q = { Q s , Q t } Q=\{Q_s,Q_t\} Q={ Qs,Qt}( Q s = { e 1 , . . . , e m } Q_s=\{e_1,...,e_m\} Qs={ e1,...,em}为问题实体集合, Q t = { e 1 , . . . , e n } Q_t=\{e_1,...,e_n\} Qt={ e1,...,en}为答案实体集合),一个LLM f f f ,和一个知识图谱 G G G, G G G包含三元组(头实体,关系,尾实体),表示为 ( h , r , t ) (ℎ,r,t) (h,r,t),目标是学习一个提示函数 f p r o m p t ( Q , G ) f_{prompt}(Q,G)

目前生成式语言模型在专业领域因缺乏知识易产生不准确回复,本文提出向LLM进行黑盒知识注入框架KnowGPT。它利用深度强化学习从知识图提取知识,用多臂赌博机选择提示。文章介绍了其框架、实现方法,并通过实验验证了其性能和多提示融合的有效性。
最低0.47元/天 解锁文章
540

被折叠的 条评论
为什么被折叠?



