论文翻译:arxiv-2024 Estimating Contamination via Perplexity: Quantifying Memorisation in Language Model

Estimating Contamination via Perplexity: Quantifying Memorisation in Language Model Evaluation
https://arxiv.org/abs/2309.10677

通过困惑度估计污染:量化语言模型评估中的记忆

摘要

随着大型语言模型的大规模训练语料库经常无意中包含基准样本,模型评估中的数据污染变得越来越普遍。因此,污染分析已成为可靠模型评估不可或缺的一部分。然而,现有的污染分析方法需要访问完整的训练数据,这些数据对最近的模型通常是保密的。这阻止了社区对这些模型进行严格的审计,并对其能力进行准确的评估。在本文中,我们提出了一种新颖的方法,无需访问完整的训练集即可量化污染,通过困惑度来衡量污染的程度。我们的分析提供了近期基础模型在流行的阅读理解、摘要基准测试中显著记忆的证据,而多项选择似乎污染较少。

1 引言

近年来,在从网络抓取的大量文本语料库上预训练的语言模型取得了显著进展。然而,许多广泛使用的评估基准也是从类似的网络来源构建的,导致了一个令人担忧的问题,即测试集中的示例无意中包含在训练数据中。污染使模型能够通过记忆测试数据而不是展示真正的泛化来“作弊”(Marie,2023),这创造了进步的幻觉,扭曲了模型比较,并破坏了基准的效用(Jacovi等人,2023)。

最近的语言模型评估通常涉及对使用的基准进行详细的污染分析(Brown等人,2020;Chowdhery等人,2022;Touvron等人,2023a;OpenAI,2023)。这些污染报告通常包含两个步骤:1)通过测量测试集和训练数据之间的n-gram重叠来量化潜在的测试污染,2)比较模型在清洁与污染子集上的性能。这一程序对于确定评估程序的有效性和基准在评估模型性能方面的可信度至关重要。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CSPhD-winston-杨帆

给我饭钱

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值