Leveraging Open Knowledge for Advancing Task Expertise in Large Language Models

本文是LLM系列文章,针对《Leveraging Open Knowledge for Advancing Task Expertise in Large Language Models》的翻译。

利用开放知识提升大型语言模型中的任务专业知识

摘要

培养大型语言模型(LLM)的专业知识来解决特定领域的任务通常需要针对预期稳定输出进行特殊目的的调整和校准行为。为了避免手动准备长达数百小时的指令数据集和训练资源带来的巨额成本,利用包括丰富的低秩适应(LoRA)模型和指令数据集在内的开放知识作为一个很好的起点。然而,现有的模型和数据选择方法侧重于通用功能的性能,而忽略了特定领域部署中暴露的知识差距。在本研究中,我们建议通过引入少量人工注释样本(即 K-shot)来弥合这一差距,以利用开放知识提升LLM的任务专业知识。具体来说,我们开发了一个高效且可扩展的管道,以经济高效地生成任务专家,其中 K-shot 数据介入选择最有希望的专家候选者和任务相关指令。混合专家 (MoE) 系统的建立是为了充分利用多位专家之间各自互补的知识。我们揭示了 MoE 系统成功的两个关键,1)对 K-shot 的遵守,2)对多样性的坚持。对于前者,我们确保选择真正具有 K-shot 问题解决能力的模型,而不是那些盲目猜测的人。此外,在数据选择过程中,与 K-shot 共享任务相关上下文的指令会被优先考虑。对于后者,我们强调了组成专家的多样性以及整个模型和数据选择过程中微调指令的多样性。大量的实验结果证实了我们的方法在跨各种任务利用开放知识方面优于现有方法。我们的代码将在 https://github.com/Yaphabates/Rocket 上提供。

1 引言

2 相关工作

3 方法

KnowledgeNavigator: Leveraging Large Language Models for Enhanced Reasoning over Knowledge Graph》聚焦于利用大型语言模型增强知识图谱推理。大型语言模型(LLM)在复杂推理和问答(QA)任务中的知识限制方面存在局限性,而KnowledgeNavigator框架利用知识图谱中的外部知识来增强LLM推理[^4]。 该框架主要包括三个阶段:问题分析、知识检索和推理。在问题分析阶段,预测推理跳数,生成相似的问题,以增强推理逻辑挖掘;知识检索阶段,根据给定的问题和大语言模型指导,从知识图谱中迭代检索和过滤相关知识;推理阶段,将检索到的知识转化为对LLM有效的提示,以此增强其推理能力。并且该框架在KGQA基准测试中优于以前的知识图谱增强LLM方法[^4]。 ```python # 以下为简单示意框架各阶段伪代码 # 问题分析 def question_analysis(question): # 预测推理跳数 hop_count = predict_hop_count(question) # 生成相似问题 similar_questions = generate_similar_questions(question) return hop_count, similar_questions # 知识检索 def knowledge_retrieval(question, llm_guide, knowledge_graph): relevant_knowledge = [] # 迭代检索和过滤相关知识 for step in range(max_steps): new_knowledge = retrieve_and_filter(question, llm_guide, knowledge_graph) relevant_knowledge.extend(new_knowledge) return relevant_knowledge # 推理 def reasoning(relevant_knowledge, llm): prompt = convert_to_prompt(relevant_knowledge) result = llm.generate(prompt) return result ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值