
nlp
文章平均质量分 70
我家大宝最可爱
这个作者很懒,什么都没留下…
展开
-
BERT论文翻译
语言预训练模型已经被证明对很多NLP任务是有效的,包括自然语言推理和释义等句子级别的任务,以及命名实体识别和问答等token级别的任务。将预训的语言表示应用与下游任务的现有策略有两种:基于特征和微调。基于特征的方法:例如ELMo,使用特定的任务结构,预训练表示作为附加的特征。基于微调的方法:例如GPT,引入了最小的任务特定参数,并通过简单的微调了所有预训练参数来训练下游任务。这两种方法在预训练期间有相同的目标函数,都使用单向语言模型去学习通用语言表示。原创 2022-10-09 19:45:02 · 817 阅读 · 0 评论 -
nlp小白教程:word2vec之数据预处理
word2vec的文章网上有非常的多,这里主要是讲代码的实现。原创 2022-09-17 22:53:49 · 1793 阅读 · 0 评论