自然语言处理中的迁移学习:历史、进展与应用
1. 自然语言处理(NLP)概述
语言是人类认知的重要组成部分,要实现真正的人工智能,机器需学会解读、理解、处理人类语言,这凸显了NLP在AI和机器学习领域的重要性。
早期处理NLP问题(如句子分类和情感分析)的方法基于显式规则或符号AI,这类系统难以泛化到新任务,容易崩溃。20世纪90年代核方法出现后,人们转向特征工程,手动将输入数据转换为浅层学习方法可用的形式,但该方法耗时、特定于任务且非专家难以掌握。
2012年左右深度学习的出现给NLP带来了真正的革命。神经网络能在某些层自动设计合适的特征,降低了这些方法应用于新任务和问题的门槛。人们的精力转向为特定任务设计合适的神经网络架构,并在训练过程中调整各种超参数设置。
NLP系统的标准训练方式是收集大量数据点,每个数据点都可靠地标注输出标签,如在句子或文档的情感分析任务中标记为“积极”或“消极”。这些数据点被提供给机器学习算法,以学习输入到输出信号的最佳表示或转换,这一过程通常被称为监督学习范式。手动标注过程为学习代表性转换提供“监督信号”,而从无标签数据中学习表示则称为无监督学习。
当前的机器学习算法和系统并非生物学习系统的直接复制品,但某些方面受进化生物学启发。传统上,针对每个新任务、语言或应用领域,监督学习过程都要从头开始,这与自然系统利用和重用先前获得的知识的学习方式相悖。尽管从零开始的感知任务学习取得了显著进展,如机器翻译、问答系统和聊天机器人,但仍存在一些缺点。例如,当前系统在处理输入信号样本分布的显著变化时不够稳健,改变输入类型可能导致性能显著下降甚至完全失败。此外,为了让AI更普及,使小型企业的普通工程师或资源有限的人也能使用NL
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



