Datawhale NLP课程 Task7

该博客介绍了如何利用Transformers库进行机器问答模型的训练和评估。首先,通过load_dataset和load_metric加载数据集。接着,使用Tokenizer对数据进行预处理,将其转化为适合预训练模型的输入格式。然后,下载并加载AutoModelForQuestionAnswering进行模型微调。最后,模型的输出包括answer start和end的logits,通过取最大logit确定答案范围。博客还提供了完整的代码参考链接。
部署运行你感兴趣的模型镜像

机器问答模型

加载数据集

和前面一样,使用函数load_dataset和load_metric来下载数据并得到需要的评测指标。

Preprocessing the training data

在将数据喂入模型之前,我们需要对数据进行预处理。预处理的工具叫Tokenizer。Tokenizer首先对输入进行tokenize,然后将tokens转化为预模型中需要对应的token ID,再转化为模型需要的输入格式。
tokenizer既可以对单个文本进行预处理,也可以对一对文本进行预处理,tokenizer预处理后得到的数据满足预训练模型输入格式。

Fine-tuning微调模型

目前,我们已经预处理好了训练/微调需要的数据,现在我们下载预训练的模型。由于我们要做的是机器问答任务,于是我们使用这个类AutoModelForQuestionAnswering。和tokenizer相似,model也是使用from_pretrained方法进行加载。

Evaluation评估

模型的输出是一个像dict的数据结构,包含了loss(因为提供了label,所有有loss),answer start和end的logits。我们在输出预测结果的时候不需要看loss,直接看logits就好了。每个feature里的每个token都会有一个logit。预测answer最简单的方法就是选择start的logits里最大的下标最为answer其实位置,end的logits里最大下标作为answer的结束位置。

Reference

https://github.com/datawhalechina/Learn-NLP-with-Transformers

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值