图解nn.Conv1d的具体计算过程

本文详细解析了1维卷积的计算流程,并通过图解形式直观展示输入、卷积核参数及输出之间的关系。使用PyTorch进行代码实现时,需要注意对数据维度的调整以符合框架要求。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 以下图解了1维卷积的计算过程,特别注意输入、卷积核参数、输出
    在这里插入图片描述

  2. 代码实现:注意pytorch中只能对倒数第2维数据进行卷积,因此传参时要转置一下,将需要卷积的数据弄到倒数第2维,这里将embeding的维度进行卷积,最后一般会在转置过来(没办法,pytorch设计的不太好,这点确实绕了一圈)

# [1,7,5] 卷积 [2,5,3] = [1, 6, 3]
a = torch.ones(1,7,5)
b = nn.Conv1d(in_channels=5, out_channels=3, kernel_size=2)(a.permute(0,2,1))
b = b.permute(0,2,1)#再换过来

输出结果:
tensor([[
[ 0.2780, 0.6589, -0.5446],
[ 0.2780, 0.6589, -0.5446],
[ 0.2780, 0.6589, -0.5446],
[ 0.2780, 0.6589, -0.5446],
[ 0.2780, 0.6589, -0.5446],
[ 0.2780, 0.6589, -0.5446]]])
torch.Size([1, 6, 3])

### nn.Conv1d 的卷积计算用法与实现细节 `nn.Conv1d` 是 PyTorch 提供的一维卷积操作工具,主要用于处理序列数据(如时间序列或文本嵌入)。以下是关于其使用方法和实现细节的详细介绍。 #### 参数说明 `nn.Conv1d` 的主要参数及其作用如下: - `in_channels`: 输入张量的通道数。对于一维卷积来说,通常表示输入特征的数量。 - `out_channels`: 输出张量的通道数,即卷积核的数量。 - `kernel_size`: 卷积核大小,决定每次滑动窗口覆盖的数据长度。 - `stride`: 步幅,默认为 1,控制卷积核移动的距离。 - `padding`: 填充方式,默认为 0,用于扩展输入边界以保持输出尺寸不变或其他需求。 - `dilation`: 膨胀率,默认为 1,增加感受野而不改变参数数量。 - `groups`: 控制输入和输出之间的连接关系,默认为 1 表示全连接模式[^2]。 #### 计算原理 假设输入形状为 `(batch_size, in_channels, L_in)`,其中 `L_in` 是输入信号的长度,则经过 `nn.Conv1d` 后的输出形状可以由以下公式计算得出: \[ L_{\text{out}} = \left\lfloor \frac{L_{\text{in}} + 2 \cdot \text{padding} - \text{dilation} \times (\text{kernel\_size} - 1) - 1}{\text{stride}} + 1 \right\rfloor \] 最终输出形状为 `(batch_size, out_channels, L_out)`[^4]。 #### 实现细节与代码示例 下面是一个完整的代码示例展示如何创建并应用 `nn.Conv1d` 进行一维卷积运算: ```python import torch import torch.nn as nn # 初始化Conv1d层 conv_layer = nn.Conv1d(in_channels=16, out_channels=33, kernel_size=3, stride=1) print(conv_layer) # 打印Conv1d对象的信息 # 创建随机输入张量 (batch_size=20, in_channels=16, length=50) input_tensor = torch.randn(20, 16, 50) print(f"Input shape: {input_tensor.shape}") # 应用Conv1d层进行前向传播 output_tensor = conv_layer(input_tensor) print(f"Output shape: {output_tensor.shape}") ``` 运行以上代码会得到类似的结果: ``` Conv1d(16, 33, kernel_size=(3,), stride=(1,)) Input shape: torch.Size([20, 16, 50]) Output shape: torch.Size([20, 33, 48]) ``` 这里需要注意的是,在实际应用中可能还需要调整输入维度顺序或者加入激活函数等额外组件来构建更复杂的模型结构[^3]。 #### 数据预处理中的 `.view()` 和 `permute()` 当遇到不匹配的维度时,可以通过调用 `.view()` 或者 `permute()` 方法重新排列张量轴的位置以便适配目标网络架构的要求。例如将三维张量从 `[batch_size, sequence_length, feature_dim]` 变换至 `[batch_size, feature_dim, sequence_length]` 形式再送入 `nn.Conv1d` 层执行进一步的操作[^1]。 ---
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值