
多模态预训练模型
baidu_huihui
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
通用的图像-文本语言表征学习:多模态预训练模型 UNITER
通用的图像-文本语言表征学习:多模态预训练模型 UNITER导读:联合图像-文本的表征学习为大多数视觉+语言 ( V+L ) 任务的基础,一般通过联合处理多模态输入,得到用于实现对视觉和文本的理解。但是,这种特征通常是针对特定任务的。在本文将介绍一种通用的图像-文本表征学习 UNITER。UNITER 是通过在四个图像-文本数据集 ( COCO, Visual Genome, Conceptual Captions, and SBU Captions ) 上进行大规模的预训练而获得的,可以通..原创 2020-07-12 01:52:58 · 3218 阅读 · 0 评论 -
周明教授《多语言及多模态任务中的预训练模型》Mari 教授《基于显式上下文表征的语言处理》
AI:2020年6月22日北京智源大会演讲分享之09:40-10:10Mari教授《基于显式上下文表征的语言处理》、10:10-10:40周明教授《多语言及多模态任务中的预训练模型》导读:首先感谢北京智源大会进行主题演讲的各领域顶级教授,博主受益匪浅,此文章为博主在聆听各领域教授或专家演讲时,一张一张截图进行保存,希望与大家一起学习,共同进步,一起见证或筑起人工智能的下一个十年。非常欢迎国内外人工智能领域网友,前来留言探讨与分享,同时感谢点赞或评论!09:40-10:10基于显式上下文表...原创 2020-07-12 01:45:44 · 802 阅读 · 1 评论