基于Transformers的自然语言处理入门【九】-Transformers解决抽取式问答

本文介绍了基于Transformers的抽取式问答任务,包括任务概念、数据预处理(如使用Tokenizer进行token化和处理长文本)以及模型微调。在预处理中,为避免丢失答案,对超长文本进行切片并允许相邻切片有交集。最后,通过AutoModelForQuestionAnswering类微调预训练模型以完成问答任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基于Transformers的自然语言处理入门【九】-Transformers解决抽取式问答

1 抽取式问答任务概念

给定一个问题和一段文本,从这段文本中找出能回答该问题的文本片段(span)。具体可详见下图:
在这里插入图片描述

2 数据预处理

在将数据喂入模型之前,我们需要对数据进行预处理。预处理的工具叫Tokenizer。Tokenizer首先对输入进行tokenize,然后将tokens转化为预模型中需要对应的token ID,再转化为模型需要的输入格式。
为了达到数据预处理的目的,我们使用AutoTokenizer.from_pretrained方法实例化我们的tokenizer,这样可以确保:

  • 我们得到一个与预训练模型一一对应的tokenizer。
  • 使用指定的模型checkpoint对应的tokenizer的时候,我们也下载了模型需要的词表库vocabulary,准确来说是tokens vocabulary。

现在我们还需要思考预训练机器问答模型们是如何处理非常长的文本的。一般来说预训练模型输入有最大长度要求,所以我们通常将超长的输入进行截断。但是,如果我们将问答数据三元组<question, context, answer>中的超长context截断,那么我们可能丢掉答案(因为我们是从context中抽取出一个小片段作为答案)。为了解决这个问题,下面的代码找到一个超过长度的例子,然后向您演示如何进行处理。我们把超长的输入切片为多个较短的输入,每个输入都要满足模型最大长度输入要求。由于答案可能存在与切片的地方&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值