An Explanation-Enhanced Dataset for Generalizable Offensive Speech Detection via LLMs

论文介绍了HateCOT,一个由52000个样本组成的跨源数据集,用于通过大型语言模型检测攻击性言论。该数据集提高了模型在低资源条件下的泛化能力,并能生成高质量的解释。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《HateCOT: An Explanation-Enhanced Dataset for Generalizable Offensive Speech Detection via Large Language Models》的翻译。

HateCOT:一个基于大型语言模型的通用攻击性语音检测解释增强数据集

摘要

这篇论文包含了一些非常令人反感的内容的例子。社交媒体的普遍性导致了对攻击性内容进行可靠有效检测以限制有害影响的需求,导致了与检测攻击性内容相关的数据集和模型的激增。虽然复杂的模型在单个数据集上获得了很强的性能,但由于“攻击性内容”的概念化方式和这些数据集的标签方式之间的差异,它们通常不会泛化。在本文中,我们介绍了HateCOT,这是一个由52000个样本组成的数据集,这些样本来自不同的现有来源,由GPT-3.5-Turbo生成并由人类策划。我们表明,尽管领域和任务存在差异,但在HateCOT上检测攻击性内容的预训练模型在零样本和小样本设置下,在三个基准数据集上显著引导开源语言模型。我们进一步发现,HateCOT能够在低资源设置下进行有效的K-shot微调。

1 引言

2 相关工作

3 构建HateCOT

4 测试集的实验

5 解释的质量

<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值