预训练模型

本文探讨了ELMo和BERT两种预训练模型在自然语言处理(NLP)领域的应用。ELMo通过预训练语言模型生成更优的词向量,而BERT则基于连贯性的语言模型进行深度解析,两者都在NLP任务中展现出显著的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. ELMO:
    https://www.cnblogs.com/huangyc/p/9860430.html
    ELMo是一种是基于特征的语言模型,用预训练好的语言模型,生成更好的特征。而ELMo的主要做法是先训练一个完整的语言模型,再用这个语言模型去处理需要训练的文本,生成相应的词向量。
    文本分类实战(九)—— ELMO 预训练模型
    https://www.cnblogs.com/jiangxinyang/p/10235054.html
    在这里插入图片描述
    在这里插入图片描述
    在NLP领域,使用预训练模型或组件的监督学习任务被称为下游任务
  2. BERT:
    http://www.sohu.com/a/281795578_473283
    https://blog.youkuaiyun.com/qq_39521554/article/details/83062188
    [NLP自然语言处理]谷歌BERT模型深度解析
    基于自然语言的连贯性,语言模型根据前文的词,预测下一个将出现的词。如果语言模型的参数正确,如果每个词的词向量设置正确,那么语言模型的预测,就应该比较准确。天下文章,数不胜数,所以训练数据,取之不尽用之不竭。
    NLP必读 | 十分钟读懂谷歌BERT模型
    https://www.jianshu.com/p/4dbdb5ab959b?from=singlemessage
    在这里插入图片描述
  3. GPT:
    在这里插入图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值