由于一维时序数据为形如[1,23]的特征,当batch_size设置为64时,经dataloader读取传入后,input_tensor为[64,23]的特征。由于magik近支持pool2d,所以需特征进行补0然后转换为[64,5,5]的张量。
x = torch.cat((x, torch.zeros(x.size(0), 2)), dim=1) #[64, 23] -> [64, 25]
x = x.view(x.size(0), 5, 5) #[64, 5, 5]
而由于采用的panns模型,默认的conv如下,且有四层ConvBlock结构
class ConvBlock(nn.Module):
def __init__(self, in_channels, out_channels):
super(ConvBlock, self).__init__()
self.conv1 = nn.Conv2d(in_channels=in_channels,
out_channels=out_channels,
kernel_size=(3, 3),
stride=(1,1),
padding=(1,1))
self.conv2 = nn.Conv2d(in_channels=out_channels,
out_channels=out_channels,
kernel_size=(3,3),

最低0.47元/天 解锁文章
1298

被折叠的 条评论
为什么被折叠?



