跨任务文本到文本框架与多语言标点恢复研究
一、NegT5模型在问答任务中的表现
在问答(QA)任务中,否定是一个需要理解的关键语法。为了提高包含否定句的QA任务的性能,提出了基于T5模型的跨标签双微调方法NegT5。
1. 不同数据预处理方法的影响
不同的数据预处理方法会在每个微调模型上产生不同的结果。以下是部分模型在SQuAD2.0测试集上的评估结果:
| 模型 | EM | F1 |
| — | — | — |
| T5small | 76.7 | 85.6 |
| NegT5small (Prefix) | 76.7 | 85.6 |
| NegT5small (BERT) | 77.0 | 85.8 |
| T5base | 78.6 | 82.0 |
| NegT5base (BERT) | 78.9 | 82.3 |
从这些结果可以看出,不同的预处理方法会对模型的表现产生影响,例如NegT5small (BERT)在SQuAD1上的表现优于T5small 。
2. BERT风格预处理
在BERT风格设置下,NegT5表现最佳。具体来看,以SQuAD2.0为例:
| 模型 | 2nd Fine - Tune | EM | F1 |
| — | — | — | — |
| T5small | SQuAD2.0 | 68.4 | 71.3 |
| NegT5small - BERTstyle (negation) | SQuAD2.0 | 69.4 | 72.7 |
而且,NegT
超级会员免费看
订阅专栏 解锁全文
1268

被折叠的 条评论
为什么被折叠?



