torch.nn.Embedding的使用

本文详细介绍了PyTorch中nn.Embedding模块的使用方法,包括参数解释、形状说明及示例代码,展示了如何利用该模块进行词嵌入。
部署运行你感兴趣的模型镜像

torch.nn.Embedding

在使用pytorch进行词嵌入使用torch.nn.Embedding()就可以做到

nn.Embedding在pytoch中的解释

class torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, 
norm_type=2, scale_grad_by_freq=False, sparse=False)

模块的输入是一个下标的列表,输出是对应的词嵌入。

参数:

  • num_embeddings (int) - 嵌入字典的大小
  • embedding_dim (int) - 每个嵌入向量的大小
  • padding_idx (int, optional) - 如果提供的话,输出遇到此下标时用零填充
  • max_norm (float, optional) - 如果提供的话,会重新归一化词嵌入,使它们的范数小于提供的值
  • norm_type (float, optional) - 对于max_norm选项计算p范数时的p
  • scale_grad_by_freq (boolean, optional) - 如果提供的话,会根据字典中单词频率缩放梯度

变量:

  • weight (Tensor) -形状为(num_embeddings, embedding_dim)的模块中可学习的权值

形状:

  • 输入: LongTensor (N, W), N = mini-batch, W = 每个mini-batch中提取的下标数
  • 输出: (N, W, embedding_dim)

Embedding的使用

参数的初始化
import torch
import torch.nn as nn
vocab={'a':0,'b':1,'c':2}
#nn.Embedding(1000,50)表示有1000个词,嵌入到50维中
#对比若是one-hot,1000个词将会是1000维
embedd=nn.Embedding(3,5)
Embedd

以简单一维的向量为例

#输入:LongTensor (N, W), N = mini-batch, W = 每个mini-batch中提取的下标数
#输出: (N, W, embedding_dim)
a_idx=torch.LongTensor(vocab['a'])#输入类型为LongTensor  a_idx=0
#a_idx在embedding处理后
a=embedd(a_idx)
print(a)
#输出:
#tensor([[ 0.9256,  1.1268, -0.5181, -0.2635,  1.9282]],grad_fn=<EmbeddingBackward>)#

我们输入二维的inputinputinput
输入:LongTensor(n,w)LongTensor (n, w)LongTensor(n,w), nnn为样本的数量, www为每个样本中词数

#两组,每组有三个词0 , 1 ,2
inputs=torch.LongTensor([[0,2,1,1],[1,2,1,0]])
outputs=embedd(inputs)
print(outputs)

输出: (n,w,embedding−dim)(n, w, embedding-dim)(n,w,embeddingdim)

tensor([[[ 0.9256,  1.1268, -0.5181, -0.2635,  1.9282],
         [-0.1351,  0.7759,  1.4697,  1.2225,  0.0390],
         [ 1.2778, -1.8050, -0.7962, -1.5764,  0.0664],
         [ 1.2778, -1.8050, -0.7962, -1.5764,  0.0664]],

        [[ 1.2778, -1.8050, -0.7962, -1.5764,  0.0664],
         [-0.1351,  0.7759,  1.4697,  1.2225,  0.0390],
         [ 1.2778, -1.8050, -0.7962, -1.5764,  0.0664],
         [ 0.9256,  1.1268, -0.5181, -0.2635,  1.9282]]],
       grad_fn=<EmbeddingBackward>)

因为初始化时* embedd=nn.Embedding(3,5)*
所以是 0, 1, 2三个词嵌入
当超过时就会报错
当inputs中出现 3

inputs=torch.LongTensor([[0,2,1,3],[1,2,1,3]])
outputs=embedd(inputs)
print(outputs)
#RuntimeError: index out of range: Tried to access index 3 out of table with 2 rows.#

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

`torch.nn.functional.embedding` 是 PyTorch 中用于实现词嵌入(Embedding)操作的函数。词嵌入是将离散的符号(如单词、ID 等)映射为连续向量的技术,在自然语言处理、推荐系统等领域应用广泛。 ### 原理 词嵌入的核心思想是将每个离散的符号表示为一个固定长度的向量,这些向量能够捕捉符号之间的语义和句法关系。具体来说,`torch.nn.functional.embedding` 维护一个嵌入矩阵(Embedding Matrix),矩阵的每一行对应一个符号的嵌入向量。当输入一个符号的 ID 时,函数会从嵌入矩阵中取出对应行的向量作为输出。 ### 使用方法 `torch.nn.functional.embedding` 的函数签名如下: ```python torch.nn.functional.embedding(input, weight, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False) ``` - `input`:输入的符号 ID 张量,可以是任意形状。 - `weight`:嵌入矩阵,形状为 `(num_embeddings, embedding_dim)`,其中 `num_embeddings` 是符号的总数,`embedding_dim` 是嵌入向量的维度。 - `padding_idx`:可选参数,指定用于填充的符号 ID,填充位置的嵌入向量将被置为零。 - `max_norm`:可选参数,指定嵌入向量的最大范数。 - `norm_type`:可选参数,指定计算范数的类型,默认为 2 范数。 - `scale_grad_by_freq`:可选参数,指定是否根据符号的频率对梯度进行缩放。 - `sparse`:可选参数,指定是否使用稀疏梯度。 以下是一个简单的使用示例: ```python import torch import torch.nn.functional as F # 定义嵌入矩阵 num_embeddings = 10 embedding_dim = 5 weight = torch.randn(num_embeddings, embedding_dim) # 输入符号 ID input_ids = torch.tensor([1, 3, 5]) # 进行嵌入操作 embedded = F.embedding(input_ids, weight) print(embedded) ``` ### 注意事项 - 输入的符号 ID 必须是整数类型,且范围在 `[0, num_embeddings - 1]` 之间。 - 嵌入矩阵 `weight` 通常是可训练的参数,可以通过 `torch.nn.Embedding` 模块来创建和管理。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值