关于embedding

本文解析了TensorFlow中embedding lookup及unstack函数的应用场景与工作原理,重点介绍了如何通过这两个函数处理encoder与decoder输入数据,实现特定形状的张量转换。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关于embedding的shape

之前读pointer-generator代码的时候一直对tensor的shape概念感到比较混沌,今天再读有了新的收获。

with tf.variable_scope('embedding'):
    embedding = tf.get_variable('embedding', [vsize, hps.emb_dim], dtype = tf.float32, initializer = self.trunc_norm.init)
    if hps.mode == "train": self._add_emb_vis(embedding) #add to tensorboard
    emb_enc_input = tf.nn.embedding_lookup(embedding, self._enc_batch) #tensor with shape (batch_size, max_enc_steps, emb_size)
    emb_dec_input = [tf.nn.embedding_lookup(embedding, x) for x in tf.unstack(self._dec_batch, axis=1)]#list length max_dec_steps containing shape (batch_size, emb_size)

其中涉及到的几个函数包括:

  • tf.nn.embedding_lookup
tf.nn.embedding_lookup(
    params,
    ids,
    partition_strategy='mod',
    name=None,
    validate_indices=True,
    max_norm=None
)

作用是根据idsparams中查找对应的元素。相当于在np.array中直接采用下标数组获取数据,需要注意的细节是返回的tensor的dtype和传入的被查询的tensor的dtype保持一致,和idsdtype无关。
前面第一段代码中_enc_batch的shape是(batch_size, max_enc_steps),经过此函数处理,得到的tensor的shape为(batch_size, max_enc_steps, emb_dim)。
- tf.unstack

tf.unstack(
    value,
    num=None,
    axis=0,
    name='unstack'
)

按照不同的维度进行矩阵分解,视axis=0axis=1的不同而定。
前面第一段代码中将_dec_batch按照axis=1分解,则得到的list的长度为max_dec_steps,其中包含元素的shape为(batch_size, emb_dim)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值