自然语言处理与计算机视觉中的迁移学习:原理、应用与实践
1. 迁移学习概述
迁移学习是一种将从一个任务或领域中获得的知识应用到另一个不同任务或领域的技术。在自然语言处理(NLP)中,一些基于语言模型的方法,如 ELMo、ULMFiT、GPT 和 BERT,展示了生成的嵌入可以在相对较少的标记数据点上针对特定的下游 NLP 任务进行微调。
- GPT :OpenAI 的生成式预训练变压器(GPT)修改了变压器的编码器 - 解码器架构,摒弃了编码器,保留了解码器及其自注意力子层,实现了一种可微调的 NLP 语言模型。
- BERT :双向编码器表示来自变压器(BERT)则相反,它保留了编码器,摒弃了解码器,并依赖于单词掩码,以准确预测掩码单词作为训练指标。
2. 计算机视觉中的迁移学习
虽然本文主要关注 NLP,但了解计算机视觉中的迁移学习有助于更好地理解 NLP 迁移学习。这两个领域的神经网络架构可能有一些相似特征,计算机视觉的技术可以为 NLP 提供借鉴。
2.1 计算机视觉概述
计算机视觉的目标是使计算机能够理解数字图像和/或视频,包括获取、处理和分析图像数据,并根据其派生表示做出决策。视频分析通常可以通过将视频拆分为帧来进行,这可以看作是一个图像分析问题。
计算机视觉的发展历程如下:
- 20 世纪中叶,随着人工智能的诞生而出现。
- 20 世纪 60 年代,初始方法试图模仿人类视觉系统。
- 20 世纪 70 年代,提取边缘和场景形状建模的
迁移学习在NLP与CV中的应用
超级会员免费看
订阅专栏 解锁全文
1871

被折叠的 条评论
为什么被折叠?



