本文是LLM系列文章,针对《HateCOT: An Explanation-Enhanced Dataset for Generalizable Offensive Speech Detection via Large Language Models》的翻译。
摘要
这篇论文包含了一些非常令人反感的内容的例子。社交媒体的普遍性导致了对攻击性内容进行可靠有效检测以限制有害影响的需求,导致了与检测攻击性内容相关的数据集和模型的激增。虽然复杂的模型在单个数据集上获得了很强的性能,但由于“攻击性内容”的概念化方式和这些数据集的标签方式之间的差异,它们通常不会泛化。在本文中,我们介绍了HateCOT,这是一个由52000个样本组成的数据集,这些样本来自不同的现有来源,由GPT-3.5-Turbo生成并由人类策划。我们表明,尽管领域和任务存在差异,但在HateCOT上检测攻击性内容的预训练模型在零样本和小样本设置下,在三个基准数据集上显著引导开源语言模型。我们进一步发现,HateCOT能够在低资源设置下进行有效的K-shot微调。