本文是LLM系列文章,针对《LLM-DA: Data Augmentation via Large Language Models for
Few
摘要
尽管大型语言模型(LLM)具有令人印象深刻的功能,但它们在信息提取任务上的性能仍然不完全令人满意。然而,他们非凡的重写能力和丰富的世界知识为改进这些任务提供了宝贵的见解。在本文中,我们提出了LLM-DA,这是一种新的基于LLM的数据增强技术,用于小样本NER任务。为了克服现有数据增强方法的局限性,这些方法会损害语义完整性,并解决LLM生成文本中固有的不确定性,我们通过在上下文和实体层面增强原始数据,利用NER任务的独特特征。我们的方法包括采用14种上下文重写策略,设计相同类型的实体替换,并结合噪声注入以增强鲁棒性。大量实验证明了我们的方法在有限数据的情况下提高NER模型性能的有效性。此外,额外的分析提供了进一步的证据,支持我们生成的数据质量超过其他现有方法的断言。
1 引言
2 提出方法
3 实验设置
4 实验设置
5 相关工作
6 结论
在本文中,我们介绍了LLM-DA,这是一种利用LLM进行小样本NER任务的数据增强方法。我们的方法利用LLM的重写能力和丰富的世界知识,有效地解决现有方法中遇到的句法或语义不一致问题。此外,我们通过在上下文和实体级别结合提示,在数据多样性和不可预测

本文提出LLM-DA,一种基于大型语言模型的数据增强技术,适用于小样本命名实体识别(NER)任务。LLM-DA通过上下文重写和实体替换策略,保持语义完整性和提高鲁棒性。实验证明,这种方法在有限数据条件下能有效提升NER模型性能。
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



