use_one_hot_embeddings解析
为什么使用onehot或者tf.gather方法
BERT源码中构造模型时关于embedding的参数有一个为use_one_hot_embeddings
。
这个参数值为Boolean类型的值,且默认为False
。
具体的深层代码如下:
def embedding_lookup(input_ids,
vocab_size,
embedding_size=128,
initializer_range=0.02,
word_embedding_name="word_embeddings",
use_one_hot_embeddings=False):
"