Tuna: Instruction Tuning using Feedback from Large Language Models

828 篇文章

已下架不支持订阅

Tuna是一种使用概率排名和上下文排名微调指令调优LLM的方法,以提高模型生成更好响应的能力。在超级自然指令、LMentry和Vicuna QA等基准测试中,Tuna模型的表现超越了强化学习基线,展现出提高基于指令的LLM性能的有效性。然而,该方法依赖GPT-4的排名,可能存在排名不一致性和对专有LLM的依赖性问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Tuna: Instruction Tuning using Feedback from Large Language Models》的翻译。

Tuna:使用来自大型语言模型的反馈的指令调优

摘要

使用更强大的LLM(如Instruction GPT和GPT-4)的直接输出,对LLaMA等开源大型语言模型(LLM)进行指令调整,已被证明是一种使模型行为与人类偏好保持一致的经济高效的方法。然而,指令调优模型每个指令只看到一个响应,缺乏潜在更好响应的知识。在本文中,我们建议使用我们新颖的概率排名和上下文排名方法来微调指令调整LLM,以增加生成更好响应的可能性。概率排名使指令调整模型能够继承教师LLM的高质量和低质量回答的相对排名。另一方面,使用上下文排序的学习允许模型使用更强LLM的上下文理解能力来细化自己的响应分布。此外,我们将概率排序和上下文排序顺序应用于指令调优LLM。由此产生的模型,我们称之为Tuna,持续提高了超级自然指令(119个测试任务)、LMentry(25个测试任务,Vicuna QA)的性能,甚至可以获得比几个强强化学习基线更好的结果。我们的代码和数据可在https://github.com/microsoft/LMOps上获得。

1

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值