torch.nn.embedding()大致使用方法

碰到了这个东西,有点不太清楚,在这里记下笔记
将nn.embedding理解为学习一个词向量的表示,每一个词都会对应一个指定维度的单独的向量表示(embed_dim在GRU等模型的输入中,可以认为是input_size)。假设当前词汇表中一共有V个不同的词,则可以定义如下形式:
假设当前词汇表中有4个不同的单词,则V=4

import torch
import torch.nn as nn
embed=nn.Embedding(4,embed_dim)
x=torch.LongTensor([[0,1,2],[3,2,1]])#B,seq_length
x_embed=embed(x)
print(x_embed.size())#B,seq_length,embed_size

可以将embed理解为一共矩阵,每个词类似于0,1,2等相当于通过矩阵的行去索引出该行向量的内容,行向量的维度为embed_dim。使用embedding去发现词隐藏的特征形式,使用神经网络的方法去自行学习。

参考连接:

PyTorch快速入门教程七(pytorch下RNN如何做自然语言处理)

PyTorch快速入门教程七(RNN做自然语言处理) - pytorch中文网

### 将 Patch Embedding 转换为图像 为了将 patch embedding 转换回原始图像,通常需要执行一系列逆操作。这些操作大致可以概括为以下几个方面: #### 1. 数据重塑 首先,假设输入的 patch embedding 形状为 `[batch_size, num_patches, embed_dim]`。由于 `embed_dim` 是由卷积层映射得到的一个高维特征空间,在反向转换过程中,必须先将其恢复成原来的通道数(通常是3)。这可以通过一个线性变换来完成。 ```python import torch.nn as nn class PatchEmbedToImage(nn.Module): def __init__(self, img_size=224, patch_size=16, in_chans=3, embed_dim=768): super().__init__() self.patch_size = patch_size self.num_patches = (img_size // patch_size)**2 # 定义一个线性层用于降维 self.linear_layer = nn.Linear(embed_dim, in_chans * (patch_size ** 2)) def forward(self, x): b, n, d = x.shape # 获取批次大小、补丁数量以及嵌入维度 assert n == self.num_patches and d == 768, "Input dimensions do not match expected values" # 使用线性层降低维度至原通道数乘以单个patch像素总数 patches_flattened = self.linear_layer(x) # 改变形状回到[B,N,C*P*P], 其中 P 表示 patch 大小 patches_reshaped = patches_flattened.view(b, n, -1, self.patch_size*self.patch_size).permute(0, 2, 1, 3) return patches_reshaped.reshape((b, -1, int(patches_reshaped.size(-1)**0.5), int(patches_reshaped.size(-1)**0.5))) ``` 这段代码定义了一个简单的 PyTorch 模型类 `PatchEmbedToImage`,它接受已经编码好的 patch embeddings,并尝试重构出接近原始尺寸的图像数据[^1]。 #### 2. 图像重组 上述过程结束后,还需要进一步处理才能获得完整的二维图像表示形式。具体来说就是把所有的小方块重新拼接在一起形成一张大图。这里的关键在于理解如何排列各个patches的位置关系,使其能够无缝对接构成整张图片。 对于给定的 `(H,W)` 像素级别的图像被划分为多个相同大小的小区域(即 patches),每个这样的子集都对应着特定的空间位置信息。因此,在重建阶段,应该按照原来划分时所遵循的方式依次放置每一个经过解码后的 patch 片段,最终合成一幅连贯一致的新图像。 需要注意的是,实际应用中的模型可能会更加复杂一些,可能涉及到更精细的设计细节比如正则化项的选择或是额外加入跳跃连接机制等等,但基本原理保持不变[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值