多语言命名实体识别与文本生成技术解析
1. 跨语言迁移评估
在完成对 XLM - R 在德语语料上的微调后,我们可以通过 Trainer 的 predict() 方法评估其向其他语言迁移的能力。为了评估多种语言,我们创建了一个简单的函数来获取 F1 分数:
def get_f1_score(trainer, dataset):
return trainer.predict(dataset).metrics["test_f1"]
使用这个函数,我们可以检查测试集上的性能,并将分数记录在一个字典中:
from collections import defaultdict
f1_scores = defaultdict(dict)
f1_scores["de"]["de"] = get_f1_score(trainer, panx_de_encoded["test"])
print(f"F1 - score of [de] model on [de] dataset: {f1_scores['de']['de']:.3f}")
结果显示,在德语数据集上的 F1 分数达到了 0.868,这对于命名实体识别(NER)任务来说是相当不错的成绩。不过,模型在 ORG 实体上表现较差,可能是因为训练数据中这类实体较少,且许多组织名称在 XLM - R 的词汇表中较为罕见。
接下来,我们评估该模型在其他语言上的表现
超级会员免费看
订阅专栏 解锁全文
1726

被折叠的 条评论
为什么被折叠?



