Transformers Can Achieve Length Generalization But Not Robustly

828 篇文章

已下架不支持订阅

本文研究了Transformer在长度泛化上的表现,即从短序列训练到长序列测试的能力。尽管发现适当的配置下Transformer可以实现2.5倍输入长度的泛化,但这种泛化并不稳健,易受权重初始化和训练顺序影响。研究强调了数据格式和位置编码在提升泛化能力中的关键作用,同时指出鲁棒的长度泛化仍然是一个挑战。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Transformers Can Achieve Length Generalization But Not Robustly》的翻译。

摘要

长度泛化,定义为从较短的训练序列外推到较长的测试序列的能力,对语言模型来说是一个重大挑战。即使大型Transformers处理相对简单的任务,这个问题仍然存在。在本文中,我们使用两个整数相加的任务来测试Transformer的长度泛化能力。我们表明,长度泛化的成功与数据格式和位置编码的类型密切相关。使用数据格式和位置编码的正确组合,我们首次展示了标准Transformers可以外推到2.5×输入长度的序列长度。然而,与分布泛化不同,长度泛化仍然很脆弱,受到随机权重初始化和训练数据顺序等因素的显著影响,导致不同随机种子之间的差异很大。

1 引言

2 位置编码和数据格式

3 十进制加法中的长度泛化公式

4 实验

5 分析

6 相关工作

7 结论

Transformers中的长度泛化一直是一个长期的挑战。我们使用十进制加法任务来评估Transformers推广

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值