feature map 可视化

本文介绍如何在TensorFlow中实现FeatureMap的可视化。通过在构建网络时将激活值加入到Tensorflow的collection中,利用特定函数获取这些值并进行可视化处理。文中详细展示了设置会话、初始化变量、加载模型、读取图片并进行预处理的过程,最后通过循环遍历指定图层,生成可视化结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

想要可视化feature map,那么构建网络时还要动点手脚,定义计算图时,每得到一组激活值都要将其加到Tensorflow的collection中,如下:

tf.add_to_collection('activations', current)

可视化的数据的获得:

img = conv_img[0, :, :, 0]# visualize the first tunnel of the current image
visualize_layers = ['conv1_1', 'conv1_2', 'conv2_1', 'conv2_2', 'conv3_1', 'conv3_2', 'conv3_3', 'conv4_1', 'conv4_2', 'conv4_3', 'conv5_1', 'conv5_2', 'conv5_3']

with tf.Session(graph=tf.get_default_graph()) as sess:   
        init_op = tf.group(tf.global_variables_initializer(), tf.local_variables_initializer())
        sess.run(init_op)
        saver.restore(sess, model_path)

        image_path = root_path + 'images/train_images/sunny_0058.jpg'
        img = misc.imread(image_path)
        img = img - meanvalue
        img = np.float32(img)
        img = np.expand_dims(img, axis=0)

        conv_out = sess.run(tf.get_collection('activations'), feed_dict={x: img, keep_prob: 1.0})
        for i, layer in enumerate(visualize_layers):
            visualize_utils.create_dir(dir_prefix + layer)
            for j in range(conv_out[i].shape[3]):
                visualize.plot_conv_output(conv_out[i], dir_prefix + layer, str(j), filters_all=False, filters=[j])

        sess.close()

original address

好的,以下是一段使用 PyTorch 实现的 UNet 卷积模型中间 feature map 可视化的代码: ```python import torch import torch.nn as nn import matplotlib.pyplot as plt # 定义 UNet 卷积模型 class UNet(nn.Module): def __init__(self): super(UNet, self).__init__() # 编码器部分 self.conv1 = nn.Conv2d(3, 64, 3, padding=1) self.bn1 = nn.BatchNorm2d(64) self.relu1 = nn.ReLU(inplace=True) self.conv2 = nn.Conv2d(64, 64, 3, padding=1) self.bn2 = nn.BatchNorm2d(64) self.relu2 = nn.ReLU(inplace=True) # 中间部分 self.conv3 = nn.Conv2d(64, 128, 3, padding=1) self.bn3 = nn.BatchNorm2d(128) self.relu3 = nn.ReLU(inplace=True) self.conv4 = nn.Conv2d(128, 128, 3, padding=1) self.bn4 = nn.BatchNorm2d(128) self.relu4 = nn.ReLU(inplace=True) # 解码器部分 self.upsample = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True) self.conv5 = nn.Conv2d(192, 64, 3, padding=1) self.bn5 = nn.BatchNorm2d(64) self.relu5 = nn.ReLU(inplace=True) self.conv6 = nn.Conv2d(64, 64, 3, padding=1) self.bn6 = nn.BatchNorm2d(64) self.relu6 = nn.ReLU(inplace=True) self.conv7 = nn.Conv2d(64, 3, 3, padding=1) def forward(self, x): # 编码器部分 x1 = self.conv1(x) x1 = self.bn1(x1) x1 = self.relu1(x1) x2 = self.conv2(x1) x2 = self.bn2(x2) x2 = self.relu2(x2) # 中间部分 x3 = self.conv3(x2) x3 = self.bn3(x3) x3 = self.relu3(x3) x4 = self.conv4(x3) x4 = self.bn4(x4) x4 = self.relu4(x4) # 解码器部分 x5 = self.upsample(x4) x5 = torch.cat((x5, x2), dim=1) x5 = self.conv5(x5) x5 = self.bn5(x5) x5 = self.relu5(x5) x6 = self.conv6(x5) x6 = self.bn6(x6) x6 = self.relu6(x6) x7 = self.conv7(x6) return x7 # 定义一个函数用于可视化中间 feature map def visualize_feature_map(model, input): # 选择中间层 layer = model.conv3 # 获取该层输出 output = layer(input) # 将输出可视化 fig, axs = plt.subplots(8, 8, figsize=(16, 16)) for i in range(8): for j in range(8): axs[i, j].imshow(output[0, i * 8 + j].detach().numpy(), cmap='gray') axs[i, j].axis('off') plt.show() # 测试可视化函数 model = UNet() input = torch.randn(1, 3, 256, 256) visualize_feature_map(model, input) ``` 这段代码实现了一个简单的 UNet 卷积模型,并定义了一个 `visualize_feature_map` 函数,用于可视化模型中间层的 feature map。在函数中,我们选择了模型的第三个卷积层作为中间层,并将输入的图片传入模型,获取该层的输出,最后将输出可视化。在可视化中,我们将输出的 feature map 按 8x8 的网格排列显示。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值