The Reversal Curse: LLMs trained on “A is B” fail to learn “B is A”

题目

反转诅咒:接受过“A is B”训练的LLM无法学会“B is A”

图片名称

论文地址:https://arxiv.org/abs/2309.12288
项目地址:https://github.com/lukasberglund/reversal_curse

摘要

    我们揭示了自回归大型语言模型(LLM)中令人惊讶的泛化失败。如果模型在“A is B”形式的句子上进行训练,它不会自动泛化到相反的方向“B is A”,这就是反转诅咒。例如,如果一个模型接受“奥拉夫·肖尔茨是德国第九任总理”的训练,它将无法自动回答“谁是德国第九任总理?”的问题。此外,正确答案(“Olaf Scholz”)的可能性不会高于随机名称。因此,模型表现出逻辑演绎的基本失败,并且没有概括其训练集中的普遍模式(即,如果“A 是 B”发生,“B 是 A”更有可能发生)。

    我们通过对“Uriah Hawthorne 是深渊旋律的作曲家”等虚构陈述进行微调 GPT-3 和 Llama-1 来提供反转诅咒的证据,并表明它们未能正确回答“谁创作了深渊旋律?”。反转诅咒在模型大小和模型系列中都很常见,并且不会通过数据增强得到缓解。我们还针对有关现实世界名人的问题评估 ChatGPT(GPT3.5 和 GPT-4),例如“汤姆·克鲁斯的母亲是谁? [A:玛丽·李·菲佛]”和相反的“谁是玛丽·李·菲佛的儿子?”。 GPT-4 正确回答前一类问题的正确率是 79%,而后者的正确率是 33%。这表明逻辑演绎失败,我们假设是由反转诅咒引起的。

引言

    如果人类知道“奥拉夫·肖尔茨是德国第九任总理”这一事实,他们也可以正确回答“谁是德国第九任总理?”。这是一种基本的概括形式,看起来微不足道。然而我们表明,自回归语言模型无法以这种方式进行泛化。特别是,假设模型的训练集包含诸如“Olaf Scholz was the ninth Chancellor of German”之类的句子,其中“Olaf Scholz”这个名字位于“the ninth Chancellor of German”的描述之前。然后,模型可能会学会正确回答“奥拉夫·肖尔茨是谁? [答:德国第九任总理]”。但它无法回答“德国第九任总理是谁?”以及描述位于名称之前的任何其他提示。

图片名称
图 1:GPT-4 中的知识不一致。 GPT-4 正确给出了汤姆·克鲁斯母亲的名字(左)。然而,当提示输入母亲的名字时,它无法检索到“汤姆·克鲁斯”(右)。我们假设这种排序效应是由于反转诅咒造成的。在“A is B”上训练的模型(例如“汤姆·克鲁斯的母亲是玛丽·李·菲佛”)不会自动推断“B 是 A”。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

三月七꧁ ꧂

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值