论文浅尝 | 大型语言模型不是一个好的少样本信息抽取工具,但对于困难样本是一个好的重排工具...

这篇论文研究了大型语言模型(LLMs)与小型预训练语言模型(SLMs)在信息抽取任务上的表现。尽管LLMs在少样本情况下不如SLMs,但它们在处理SLMs难以解决的复杂样本时表现出色。文章提出了一个适应性的filter-then-rerank范式,利用SLMs过滤低置信度结果,然后用LLMs进行重排,提高了困难样本的处理效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

932b90ede4a0d53f7247dcbb22a7b782.png

笔记整理:徐欣,浙江大学硕士

链接:https://arxiv.org/pdf/2303.08559.pdf

简介

本文探究了大型语言模型 (LLMs)和微调的小型预训练语言模型(SLMs)在少样本信息抽取(IE)任务上的表现。本文发现LLMs在IE任务上表现不佳,同时存在高延迟和高开销的缺点,但是LLMs擅长处理对SLMs困难的样本。由此,本文提出了适应性的filter-then-rerank范式,SLMs作为过滤器,LLMs作为重排工具。

构建少样本数据集

a0e48bb8f4a47e466d755ce6177c85dc.png

本文在命名实体识别(NER)、关系抽取(RE)和事件检测(ED)三个任务的8个数据集上进行了实验,原数据集统计如上表所示。本文采用K-shot采样,对于NER和ED,K=1,5,10,20;对于RE,K=1,5,10,20,50,100。如果K-shot数据集包含大于300个句子,按1:9分出验证集和训练集;如果小于300个句子,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值