- 博客(4)
- 收藏
- 关注
原创 【Transformer】学习笔记——Word Embedding词嵌入
在上面的例子中,我提供了一个简化的词汇表(vocab)和句子,用于说明嵌入层的工作原理。词汇表中只包含了几个单词,而"another"这个单词并没有包含在词汇表中,因此它没有对应的数字索引。的张量,其中2是句子的数量,6是每个句子中单词的数量(包括填充),4是嵌入向量的维度。:如果"another"是一个常见的单词,我们可能会选择将其添加到词汇表中,并为其分配一个新的索引。这里,每个单词都被转换为一个4维的向量,这些向量可以作为神经网络的输入,用于各种NLP任务。例如,在PyTorch中,
2024-11-23 15:59:17
609
原创 【Transformer】学习笔记
参考视频提示:以下是本篇文章正文内容,下面案例可供参考词嵌入:将单词转换为向量表示,捕捉语义信息。位置编码:提供序列中每个位置的位置信息。位置嵌入:将词嵌入与位置编码相加,结合语义信息和位置信息。
2024-11-23 13:18:37
1451
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人