前面回顾了一些序列模型(RNN等),然后引出了attention transformer的学习,有了transformer这个强大的基础结构,就衍生出了许多强大复杂的大型模型。其中Bert和GPT是两个典型的代表,也是NLP领域预训练模型的代表。 下面结合许多资料,先手写了一点笔记,后面会总结整合成电子博客
前面回顾了一些序列模型(RNN等),然后引出了attention transformer的学习,有了transformer这个强大的基础结构,就衍生出了许多强大复杂的大型模型。其中Bert和GPT是两个典型的代表,也是NLP领域预训练模型的代表。 下面结合许多资料,先手写了一点笔记,后面会总结整合成电子博客