NLP
自然语言基础
三大基础:
- 词向量:词转换为向量。
- 序列生成:生成一个序列。
- 注意力机制:有很多信息,从中找出重要的。
两个任务:
- 文本分类任务
- 机器翻译任务

自然语言处理发展历程与前进方向
1. 2003年NNLM模型
基于前馈神经网络的语言模型。
在它之前:传统方法都是通过统计的方法,数出每个词出现的次数。通过统计n-grams来学习语言模型。
NNLM:通过深度学习的方式自动学习一个语言模型,是将词映射到向量。并且和n-grams模型的效果相当。

2. 2013年Word2vec模型
之前的词向量学习:速度太慢,训练时间太长,无法在大规模语料进行训练,所以效果较差。
Word2vec:通过两种方法加快词向量的训练,实现在大规模语料上训练得到非常好的词向量,极大推动了自然语言处理的发展。

3. 2014年TextCNN模型
之前的文本分类模型:模型复杂,效果一般Word2vec:通过使用预训练的词向量在简单的CNN模型上取得了非常好的效果。
模型:
Word2Vec词向量+Conv+Pooling+全连接

4. 2014年Deep NMT模型
Deep NMT:四层LSTM+神经机器翻译
之前的统计机器翻译:复杂的规则和统计方法。
神经机器翻译:通过神经网络自动训练神经机器翻译模型,2016年,谷歌翻译正式使用神经机器翻译代替统计机器翻译,其负责人表示:这意味着用500行神经网络模型代码取代 50万行基于短语的机器翻译代码

5.2015年Attention模型
注意力机制:注意力机制是自然语言处理处理最核心的算法之一,它通过简单的机制能够自动从复杂的信息中选择关键的信息。

论文学习方式
导读:储备知识+背景知识
精读:模型结构+实验分析+论文总结(关键点、创新点、启发点)
代码实现:数据集+pytorch实现

学习路径
- 可以复现代码
- Baseline学习:词向量、文本分类、Seq2Seq、Attention。
- 进阶:文本分类、预训练、图神经网络等。


NLP的Baseline

NLP的三大顶会
- ACL——ENCL
- EMNLP
- NAACL
ICIR
这篇博客回顾了NLP的发展历程,从2003年的NNLM模型到2015年的Attention机制,包括Word2vec的词向量学习、TextCNN在文本分类的应用以及DeepNMT在神经机器翻译的革新。注意力机制被强调为处理复杂信息的关键算法。推荐的学习路径包括词向量、文本分类和Attention模型的实践。NLP领域的顶级会议如ACL、EMNLP和NAACL也是关注重点。
1422

被折叠的 条评论
为什么被折叠?



