本文是LLM系列文章,针对《What Makes Pre-trained Language Models Better Zero-shot Learners?》的翻译。
摘要
当前在零样本场景中进行提示学习的方法广泛依赖于具有足够的人工注释数据的开发集,以事后选择性能最佳的提示模板。这并不理想,因为在现实世界中具有实际相关性的零样本场景中,没有标记的数据可用。因此,我们提出了一种简单而有效的方法来筛选零样本文本分类中合理的提示模板:困惑选择(Perption)。我们假设语言差异可以用来衡量提示模板的效果,从而开发出一个基于困惑的方案,可以提前预测提示模板的性能。实验表明,我们的方法在现实的零样本设置中提高了预测性能,消除了对任何标记示例的需要。
1 引言
2 前言
3 假设
4 方法
5 前导性研究
6 实验
7 讨论
8 结论
我们开发了困惑选择提示(Perption),这是一种在不使用任何人工注释数据的情况下实现现实世界零样本文本分类的方法。一项试点研究表明,困惑可以有效地衡量模板的功效。实验结果表明,对于英汉数据集,我们的方法可以在不使用开发集的情况下,在二元情感分析和多类分类中提高完成型风格提示学习的零样本性能。进一步的深入分析支持了Perption可以“预见”提示模板的功效的观察结果。
9 局限性
在本研究中,我们主要使用BERT系列
本文提出了一种名为困惑选择(Perception)的方法,用于筛选零样本文本分类中的提示模板,无需人工注释数据。通过困惑度评估模板效果,实验证明该方法在零样本设置中提升了预测性能,适用于英汉情感分析和多类分类任务。
已下架不支持订阅
720

被折叠的 条评论
为什么被折叠?



