文本深度学习:从预训练嵌入到Transformer架构
1. 预训练嵌入模型
在文本深度学习中,我们可以使用预训练的嵌入层来构建模型。以下是一个使用预训练GloVe嵌入的模型示例:
inputs = keras.Input(shape=(None,), dtype="int64")
embedded = embedding_layer(inputs)
x = layers.Bidirectional(layers.LSTM(32))(embedded)
x = layers.Dropout(0.5)(x)
outputs = layers.Dense(1, activation="sigmoid")(x)
model = keras.Model(inputs, outputs)
model.compile(optimizer="rmsprop",
loss="binary_crossentropy",
metrics=["accuracy"])
model.summary()
callbacks = [
keras.callbacks.ModelCheckpoint("glove_embeddings_sequence_model.keras",
save_best_only=True)
]
model.fit(int_train_ds, validation_data=int_val_ds, epochs=10,
callbacks=callbacks)
model = keras
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



