深度学习文本分类:从预训练词嵌入到CNN模型
预训练GloVe嵌入的使用示例
在自然语言处理领域,使用预训练的词嵌入可以提升模型的性能。Keras的Embedding层可以利用在其他地方学习到的词嵌入。例如,GloVe方法的研究人员在其网站上提供了一套预训练的词嵌入,以公共领域许可发布。
最小的嵌入包为822兆字节,名为glove.6B.zip,它在包含10亿个标记(单词)的数据集上进行训练,词汇量达40万个单词,有50、100、200和300维等不同的嵌入向量大小。
下面是使用预训练GloVe嵌入的具体步骤:
1. 定义并编码文档 :
from numpy import asarray
from numpy import zeros
from keras.preprocessing.text import Tokenizer
from keras.preprocessing.sequence import pad_sequences
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import Flatten
from keras.layers import Embedding
# 定义文档
docs = ['Well done!',
'Good work',
'Great effort',
'nice work',
'Excellent!',
'W
超级会员免费看
订阅专栏 解锁全文
913

被折叠的 条评论
为什么被折叠?



