开篇
先放上我参考的一篇博客
tensorflow 使用预训练词向量
embedding层
我们使用预训练的词向量,最主要的目的就是为了生成embedding层的w
W = tf.Variable(tf.constant(0.0, shape=[vocab_size, embedding_dim]),
trainable=False, name="W")
embedding_placeholder = tf.placeholder(tf.float32, [vocab_size, embedding_dim])
embedding_init = W.assign(embedding_placeholder)
sess.run(embedding_init, feed_dict={embedding_placeholder: embedding})
这里的前提就是你代

本文介绍了如何在深度学习模型中使用预训练词向量,重点在于确保词典一致性和构建embedding层。内容涵盖tensorflow中应用预训练词向量的方法,以及当词典大小不匹配时如何处理。
最低0.47元/天 解锁文章
1340

被折叠的 条评论
为什么被折叠?



