一图看懂tf.nn.embedding_look函数内部运算过程

本文通过示意图解析了使用TensorFlow实现长短期记忆(LSTM)语言模型的过程,重点介绍了词向量的表示方法及tf.nn.embedding_lookup函数的作用,并解释了批大小、迭代步数等关键参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

下图是本人亲笔画的示意图,忽略我不堪入目的字,内容最重要。大笑

下图是在我看《Tensorflow实战》这本书的Tensorflow实现LSTM的语言模型这一节过程中画的,主要是结合此例,用wi表示单词,wi的向量表达方式我以自己的理解方式举得例子,比如w1为[1,0,0,...,0,0]; w2为[0,1,0,...,0,0]; w3为[0,0,1,...,0,0] 等等。

tf.nn.embedding_look(embedding, input_.input_data)函数主要含义就是input_data相当于词向量索引,在词汇表embedding中找出input_data中的单词的向量表达方式。

batch_size表示批大小;

num_steps表示迭代步数;

vocab_size表示词汇表中单词个数;

hidden_size表示LSTM隐藏层单元数;

embedding的列表示每个单词向量表达的维度,此例中设为和LSTM隐藏层单元数一致为hidden_size;


评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值