
预训练
文章平均质量分 62
hellozgy
这个作者很懒,什么都没留下…
展开
-
对比学习论文汇总
这里写自定义目录标题1、SimCSE: Simple Contrastive Learning of Sentence Embeddings1、SimCSE: Simple Contrastive Learning of Sentence Embeddings论文:https://arxiv.org/pdf/2104.08821.pdfcode: https://github.com/princeton-nlp/SimCSE思想:...原创 2021-08-19 11:40:59 · 326 阅读 · 0 评论 -
预训练模型
一、bert论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding代码:https://github.com/google-research/bert作者:google1、贡献提出一种双向语言模型,基于该预训练模型finetune后在各下游任务取得sota效果。模型结构图如下,包括两个任务,一个是MLM(mask language model),另一个是NSP任务(next sente原创 2021-04-09 11:44:47 · 5638 阅读 · 1 评论