
NLP
文章平均质量分 91
自然语言处理的前世今生
少云清
纸上得来终觉浅,绝知此事要躬行
展开
-
11_BERT(预训练Transformer模型)
BERT(预训练Transformer模型)原创 2022-02-02 10:30:00 · 1443 阅读 · 0 评论 -
10_从Attention层到Transformer网络
从Attention层到Transformer网络原创 2022-02-02 09:00:00 · 742 阅读 · 0 评论 -
9_Transformer Model:Attention without RNN
Transformer Model:Attention without RNN原创 2022-02-01 08:45:00 · 249 阅读 · 0 评论 -
8_Self-Attention(自注意力机制)
Self-Attention(自注意力机制)原创 2022-01-31 10:45:00 · 253 阅读 · 0 评论 -
7_Attention(注意力机制)
Attention(注意力机制)原创 2022-01-29 08:30:00 · 1075 阅读 · 0 评论 -
6_机器翻译与Seq2Seq模型
机器翻译:多对多的问题,输入和输出的长度都不固定原创 2022-01-27 11:01:04 · 801 阅读 · 2 评论 -
5_Text Generation(文本生成)
文章目录一、Example(案例)二、Train an RNN for Text Prediction三、Training a Text Generator(训练文本生成器)—模型训练3.1 Prepare Training Data(准备训练数据)3.2 Character to Vector(字符变为向量)3.3 Build a Neural Network(设计一个神经网络)3.4 Train the Neural Network(训练神经网络)四、Text Generation(文本生成)4.1 P原创 2022-01-26 21:34:30 · 2261 阅读 · 0 评论 -
4_Making RNNs More Effective(提升RNN的效果)
文章目录一、Stacked RNN(多层RNN)二、Bidirectional RNN(双向RNN)三、Pretrain(预训练)3.1 Pretrain the Embedding Layer四、Summary(总结)一、Stacked RNN(多层RNN)from keras.models import Sequentialfrom keras.layers import LSTM,Embedding,Dense# 设置超参数vocabulary = 10000 # 词典里面有1000原创 2022-01-25 08:02:57 · 298 阅读 · 0 评论 -
3_Long Short Term Memory (LSTM)
文章目录一、LSTM核心思想1.1 Conveyor Belt(传输带)二、LSTM分布指南2.1 Forget Gate(遗忘门)2.2 Input Gate(输入门)2.3 New value(新的值)2.4 Output gate(输出门)三、LSTM: Number of Parameters(参数数量)四、LSTM for IMDB Review五、Summary(总结)一、LSTM核心思想LSTM是一种RNN模型LSTM是对简单循环神经网络的改进LSTM可以避免梯度消失的问题,可以有更原创 2022-01-25 06:52:41 · 829 阅读 · 0 评论 -
2_Recurrent Neural Networks (RNNs)循环神经网络 —Simple RNNs
一、How to model sequential data?(怎样对时序数据建模)1.1 one to one模型one to one模型:一个输入对应一个输出。包括:全连接神经网络和卷积神经网络。人脑并不需要one to one模型来处理时序数据,并不会把一整段文字直接输入大脑。整体处理一个段落。固定大小的输入(例如图像)。固定大小的输出(例如,预测概率)。1.2 many to one模型RNNs对于输入和输出的长度都不需要固定RNNs适合文本,语音,时序序列数据更新状态向量原创 2021-09-29 16:59:33 · 385 阅读 · 0 评论 -
1_文本处理与词嵌入
文章目录一、前提二、Text to Sequence(文本处理)1.1 Tokenization(分词)1.2 Build Dictionary(建立一个字典)1.3 One-Hot Encoding1.4 Align Sequences(对齐序列)三、Word Embedding: Word to Vector(词嵌入:把单词表示成低维向量)2.1 One-Hot Encoding(one-hot 编码)2.2 Word Embedding(词嵌入)四、Logistic Regression for Bi原创 2021-09-28 14:28:15 · 238 阅读 · 0 评论