目录
关于全局平均池化(GlobalAveragePooling)
基于LSTM的序列分类
max_features = 1024
model = Sequential()
model.add(Embedding(max_features, output_dim=256))
model.add(LSTM(128))
model.add(Dropout(0.5))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=['accuracy'])
model.fit(x_train, y_train, batch_size=16, epochs=10)
score = model.evaluate(x_test, y_test, batch_size=16)
关于词嵌入向量
代码中,Embedding是将正整数转换为固定尺寸的稠密向量。
使用数学模型处理文本语料的第一步就是把文本转换成数学表达,有两种方法。第一种方法可以通过one-hot矩阵表示一个单词,one-hot矩阵是指每一行有且只有一个元素为1,其余元素为0的矩阵,例如:
one-hot的表示方式很直观,但是有两个缺点: