

bert做填词或者做Next Sentence Prediction,其实中间训练的过程就是在读懂这个字的意思,通过上下文读懂了这个词的意思,所以得以做填词或者Next Sentence Prediction。
训练好的参数,得出输出的向量就代表这个词的意思
Fine-Tuning微调:过程是对参数进行再训练,然后用作bert的下游任务,bert的类型分为下面四种:
1.句子分类
2.单词分类
3.如果现在的任务是 NLI(自然语言推理)。即给定一个前提,然后给出一个假设,模型要判断出这个假设是 正确、错误还是不知道。这本质上是一个三分类的问题,和 Case 1 差不多,对 [CLS]
的 output 进行预测即可
4.问答