人工神经网络在自然语言处理中的应用博客
自然语言处理的发展历程
自然语言处理(NLP)的发展经历了多个重要阶段。1957 年,Noam Chomsky 出版了《Syntactic Structures》,他创造了“相位结构语法”,旨在将自然语言句子系统地转换为计算机能够理解的格式,为计算机理解语言奠定了基础。
1964 年,ELIZA 诞生,它通过反射技术模仿精神病医生与患者的交流。同年,美国国家研究委员会(NRC)成立了自动语言处理咨询委员会(ALPAC),负责评估自然语言处理研究的进展。然而,到了 1966 年,由于经过十二年的研究,机器翻译仍然比人工翻译成本高,且计算机还无法进行基本对话,NRC 和 ALPAC 停止了对自然语言处理和机器翻译研究的资助,这引发了第一次 AI 和 NLP 危机。
14 年后的 1980 年,自然语言处理和人工智能研究开始从极端爱好者带来的未实现期望中恢复。原来的机器翻译概念被摒弃,新的想法推动了新的研究,包括专家系统。
20 世纪 90 年代,自然语言处理的统计模型变得非常流行,纯统计的 NLP 方法在处理大量在线文本方面变得非常有价值。1997 年,长短期记忆(LSTM)循环神经网络(RNN)模型被引入,并在 2007 年在语音和文本处理方面展现出优势。目前,神经网络模型在理解文本和语音生成的 NLP 研究和开发中处于前沿地位。
2001 年,Yoshio Bengio 及其团队提出了第一个使用前馈神经网络的神经“语言”模型。前馈神经网络是一种不形成循环的人工神经网络,数据只从输入节点经过隐藏节点流向输出节点。如今,机器学习领域不断取得进展,人工神经网络(ANN)是最流行和强大的机器学习算法类别之一。
超级会员免费看
订阅专栏 解锁全文
1894

被折叠的 条评论
为什么被折叠?



