【tensorflow:实战Google深度学习框架】-tip6 高维向量可视化

生成需要的两个文件‘mnist_meta.tsv’和‘sprite’图片

import matplotlib.pyplot as plt
import tensorflow as tf
import numpy as np
import os
from tensorflow.examples.tutorials.mnist import input_data

# PROJECTOR需要的日志文件名和地址相关参数
LOG_DIR = 'log'
SPRITE_FILE = 'mnist_sprite.jpg'
META_FIEL = "mnist_meta.tsv"


# 使用给出的MNIST图片列表生成sprite图像
def create_sprite_image(images):
    """Returns a sprite image consisting of images passed as argument. Images should be count x width x height"""
    if isinstance(images, list):
        images = np.array(images)
    img_h = images.shape[1]
    img_w = images.shape[2]
    # sprite图像可以理解成是小图片平成的大正方形矩阵,大正方形矩阵中的每一个元素就是原来的小图片。于是这个正方形的边长就是sqrt(n),其中n为小图片的数量。
    n_plots = int(np.ceil(np.sqrt(images.shape[0])))

    # 使用全1来初始化最终的大图片。
    spriteimage = np.ones((img_h*n_plots, img_w*n_plots))

    for i in range(n_plots):
        for j in range(n_plots):
            # 计算当前图片的编号
            this_filter = i*n_plots + j
            if this_filter < images.shape[0]:
                # 将当前小图片的内容复制到最终的sprite图像
                this_img = images[this_filter]
                spriteimage[i*img_h:(i + 1)*img_h,
                j*img_w:(j + 1)*img_w] = this_img

    return spriteimage


# 加载MNIST数据。这里指定了one_hot=False,于是得到的labels就是一个数字,表示当前图片所表示的数字。
mnist = input_data.read_data_sets("../MNIST_data", one_hot=False)

# 生成sprite图像
to_visualise = 1 - np.reshape(mnist.test.images, (-1, 28, 28))
sprite_image = create_sprite_image(to_visualise)

# 将生成的sprite图片放到相应的日志目录下
path_for_mnist_sprites = os.path.join(LOG_DIR, SPRITE_FILE)
plt.imsave(path_for_mnist_sprites, sprite_image, cmap='gray')
plt.imshow(sprite_image, cmap='gray')

# 生成每张图片对应的标签文件并写道相应的日志目录下
path_for_mnist_metadata = os.path.join(LOG_DIR, META_FIEL)
with open(path_for_mnist_metadata, 'w') as f:
    f.write("Index\tLabel\n")
    for index, label in enumerate(mnist.test.labels):
        f.write("%d\t%d\n"%(index, label))

 mnist_inference.py文件的代码

import tensorflow as tf

# 定义神经网络结构相关的参数
INPUT_NODE = 784
OUTPUT_NODE = 10
LAYER1_NODE = 500

# 通过tf.get_variable函数来获取变量。在训练神经网络时会创建这些变量;在测试时会通
# 过保存的模型加载这些变量的取值。而且更加方便的是,因为可以在变量加载时将滑动平均变
# 量重命名,所以可以直接通过相同的名字在训练时使用变量自身,而在测试时使用变量的滑动
# 平均值。在这个函数中也会将变量的正则化损失加入到损失集合。
def get_weight_variable(shape, regularizer):
    weights = tf.get_variable(
        "weights", shape,
        initializer=tf.truncated_normal_initializer(stddev=0.1)
    )
    # 当给出了正则化生成函数时,将当前变量的正则化损失加入名字为losses的集合。在这里
    # 使用了add_to_collection函数将一个张量加入一个集合,而这个集合的名称为losses。
    # 这是自定义的集合,不在TensorFlow自动管理的集合列表中。
    if regularizer != None:
        tf.add_to_collection('losses', regularizer(weights))
    return weights

# 定义神经网络的前向传播过程
def inference(input_tensor, regularizer):
    # 声明第一层神经网络的变量并完成前向传播过程。
    with tf.variable_scope('layer1'):
        # 这里通过tf.get_variable或者tf.Variable没有本质区别,因为在训练或者测试
        # 中没有在同一个程序中多次调用这个函数。如果在同一个程序中多次调用,在第一次
        # 调用之后需要将reuse参数设置为True。
        weights = get_weight_variable(
            [INPUT_NODE, LAYER1_NODE], regularizer
        )
        biases = tf.get_variable(
            "biases", [LAYER1_NODE],
            initializer=tf.constant_initializer(0.0)
        )
        layer1 = tf.nn.relu(tf.matmul(input_tensor, weights)+biases)

    # 类似的声明第二层神经网络的变量并完成前向传播过程。
    with tf.variable_scope('layer2'):
        weights = get_weight_variable(
            [LAYER1_NODE, OUTPUT_NODE], regularizer
        )
        biases = tf.get_variable(
            "biases", [OUTPUT_NODE],
            initializer=tf.constant_initializer(0.0)
        )
        layer2 = tf.matmul(layer1, weights) + biases

    # 返回最后前向传播的结果
    return layer2

高维向量可视化的py文件代码

import tensorflow as tf
from Chapter11 import mnist_inference
import os

from tensorflow.contrib.tensorboard.plugins import projector
from tensorflow.examples.tutorials.mnist import input_data

batch_size = 128
learning_rate_base = 0.8
learning_rate_decay = 0.99
training_steps = 10000
moving_average_decay = 0.99

log_dir = 'log'
sprite_file = 'mnist_sprite.jpg'
meta_file = 'mnist_meta.tsv'
tensor_name = 'final_logits'

#获取瓶颈层数据,即最后一层全连接层的输出
def train(mnist):
    with tf.variable_scope('input'):
        x = tf.placeholder(tf.float32,[None,784],name='x-input')
        y_ = tf.placeholder(tf.float32,[None,10],name='y-input')
    regularizer = tf.contrib.layers.l2_regularizer(0.0001)
    y = mnist_inference.inference(x,regularizer=regularizer)
    global_step = tf.Variable(0,trainable=False)

    with tf.variable_scope('moving_average'):
        ema = tf.train.ExponentialMovingAverage(moving_average_decay,global_step)
        ema_op = ema.apply(tf.trainable_variables())

    with tf.variable_scope('loss_function'):
        loss = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y,labels=tf.argmax(y_,1)))

    with tf.variable_scope('train_step'):
        learning_rate = tf.train.exponential_decay(
            learning_rate_base,
            global_step,
            mnist.train.num_examples/batch_size,
            learning_rate_decay,
            staircase=True
        )

        train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss,global_step=global_step)

        train_op = tf.group(train_step,ema_op)

    with tf.Session() as sess:
        sess.run(tf.global_variables_initializer())
        for i in range(training_steps):
            xs,ys = mnist.train.next_batch(batch_size)
            _,loss_value,step = sess.run([train_op,loss,global_step],feed_dict={x:xs,y_:ys})

            if step % 100 == 0 :
                print('step:{},loss:{}'.format(step,loss_value))

        final_result = sess.run(y,feed_dict={x:mnist.test.images})

    return final_result

def visualisation(final_result):
    #定义一个新向量保存输出层向量的取值
    y = tf.Variable(final_result,name=tensor_name)
    #定义日志文件writer
    summary_writer = tf.summary.FileWriter(log_dir)

    #ProjectorConfig帮助生成日志文件
    config = projector.ProjectorConfig()
    #添加需要可视化的embedding
    embedding = config.embeddings.add()
    #将需要可视化的变量与embedding绑定
    embedding.tensor_name = y.name

    #指定embedding每个点对应的标签信息,
    #这个是可选的,没有指定就没有标签信息
    embedding.metadata_path = meta_file
    #指定embedding每个点对应的图像,
    #这个文件也是可选的,没有指定就显示一个圆点
    embedding.sprite.image_path = sprite_file
    #指定sprite图中单张图片的大小
    embedding.sprite.single_image_dim.extend([28,28])

    #将projector的内容写入日志文件
    projector.visualize_embeddings(summary_writer,config)

    #初始化向量y,并将其保存到checkpoints文件中,以便于TensorBoard读取
    sess = tf.InteractiveSession()
    sess.run(tf.global_variables_initializer())
    saver = tf.train.Saver()
    saver.save(sess,os.path.join(log_dir,'model'),training_steps)
    summary_writer.close()

def main(argv=None):
    mnist = input_data.read_data_sets('MNIST_data',one_hot=True)

    final_result = train(mnist)
    visualisation(final_result)

if __name__ == '__main__':
    tf.app.run()

 

<think>我们正在处理关于SHREC17训练模型的可视化或展示方式的查询。SHREC17是一个三维形状检索竞赛,通常涉及三维模型的特征学习和匹配。可视化训练好的模型可以帮助理解模型学到了什么,以及它是如何对三维形状进行表示的。根据引用[2]和[3],我们知道在三维形状匹配任务中,通常使用卷积神经网络(CNN)来提取特征。这些特征可以用于相似度计算和分类。可视化方法可以包括:1.**特征空间可视化**:使用降维技术(如t-SNE或PCA)将高维特征投影到二维平面,从而观察不同类别的三维模型在特征空间中的分布情况。2.**激活图可视化**:对于基于视图的方法(即使用多个渲染视图来表示三维模型),我们可以可视化CNN在特定视图上的激活图,以查看模型关注哪些区域。3.**注意力图可视化**:如果模型使用了注意力机制,我们可以可视化不同视图的注意力权重,以展示模型如何组合多个视图的信息。4.**检索结果可视化**:展示给定查询形状的top-k检索结果,直观地展示模型的检索性能。5.**三维形状重建**:如果模型是生成式的,我们可以尝试从学习到的特征重建三维形状,以验证特征的代表性。此外,引用[4]中提到了一种使用简化标签(如立方体、球体等)进行弱监督训练的方法,并使用了三维分割模型。虽然这针对的是cryoET数据,但类似的可视化方法(如分割结果的可视化)也可以借鉴。具体到SHREC17,常见的模型展示方式包括:-**检索曲线**:如Precision-Recall曲线、mAP(平均精度均值)等,用于量化评估。-**检索示例**:选取一些查询模型,展示其前几个检索结果,并与真实情况对比。-**特征空间可视化**:将测试集中所有模型的特征降维到2D或3D空间,用散点图表示,不同类别用不同颜色,观察聚类情况。如果模型是基于视图的,还可以可视化-**关键视图选择**:展示模型认为哪些视图对于识别该形状最重要。-**视图之间的特征相似性**:通过热力图展示不同视图特征之间的相似性。对于深度学习模型内部的可视化,我们可以使用梯度上升法生成最大化某个神经元激活的输入(即特征可视化),但在三维形状领域,这通常比较困难,因为输入是三维的或者多视图的。因此,针对SHREC17训练模型的可视化,我们可以采用以下步骤:1.**特征提取**:使用训练好的模型对测试集的三维形状提取特征(通常是全局特征向量)。2.**降维可视化**:使用t-SNE将高维特征降维至2D或3D,然后用散点图展示,每个点代表一个三维模型,颜色表示其类别。这样可以观察同类模型是否聚集在一起。3.**检索结果展示**:选择几个代表性的查询模型,展示其检索结果(即最相似的几个模型),可以并排显示查询模型和检索到的模型。4.**注意力可视化**(如果模型有注意力机制):展示模型在聚合多个视图特征时,分配给每个视图的权重,可以用柱状图或热力图表示。5.**激活图可视化**:对于单个视图,使用类激活图(CAM)技术,将模型最后几层的特征图反向投影到输入视图上,显示模型关注哪些区域。下面是一个简单的示例代码,展示如何使用t-SNE对特征进行降维并可视化:```pythonfromsklearn.manifoldimportTSNEimportmatplotlib.pyplotaspltimportnumpyasnp#假设features是一个numpy数组,形状为(N,D),N是样本数,D是特征维度#labels是一个长度为N的列表,表示每个样本的类别features=...#从模型中提取的特征labels=...#对应的类别#使用t-SNE降维tsne=TSNE(n_components=2,random_state=42)features_tsne=tsne.fit_transform(features)#可视化plt.figure(figsize=(10,8))scatter=plt.scatter(features_tsne[:,0],features_tsne[:,1],c=labels,cmap='tab10',alpha=0.6)plt.legend(*scatter.legend_elements(),title="Classes")plt.title('t-SNEvisualizationof3Dshapefeatures')plt.show()```此外,我们可以使用三维可视化工具(如Matplotlib的3D绘图或Mayavi)来展示三维形状本身,以及检索结果。总结:SHREC17训练模型的可视化主要围绕特征空间、检索结果和模型内部注意力(如果有)等方面进行。我们可以通过降维投影、检索示例图、注意力权重图等方式展示。</think>### SHREC17训练模型的可视化与展示方法 在三维形状检索领域,SHREC17训练模型的可视化主要通过以下方法实现,这些方法能直观展示模型学习到的特征和检索效果: #### 1. **特征空间投影可视化** - 使用降维技术(如t-SNE或PCA)将高维特征投影到2D/3D空间 - 不同颜色标记不同类别的三维模型 - 观察同类模型的聚类情况和类间分离度 - 示例代码: ```python from sklearn.manifold import TSNE import matplotlib.pyplot as plt # features: 模型提取的N×D维特征矩阵 # labels: N个样本的类别标签 tsne = TSNE(n_components=2, perplexity=30) projections = tsne.fit_transform(features) plt.scatter(projections[:,0], projections[:,1], c=labels, cmap='jet') plt.colorbar() plt.title('SHREC17 Feature Space Visualization') ``` #### 2. **检索结果对比展示** - **查询-检索结果网格**: - 第一行显示查询模型 - 后续行展示Top-K检索结果,按相似度排序 - 错误结果用红色边框标注 ![检索结果示例](https://via.placeholder.com/600x200?text=Query+Top5+Results+Visualization) *图:查询模型(左)与检索结果对比[^2]* #### 3. **注意力热力图可视化** - 对基于视图的模型(如MVCNN): - 可视化模型在多个视图上的注意力权重 - 使用热力图覆盖在原始视图上 ```python # 伪代码:生成视图注意力热力图 for view in multi_views: cam = grad_cam(model, view, class_idx) overlay_heatmap(view, cam) ``` #### 4. **特征相似度矩阵** - 计算测试集所有样本间的特征相似度 - 用热力图显示N×N相似度矩阵 - 理想情况下对角线区块应呈现高亮 $$ \mathbf{S}_{ij} = \frac{\mathbf{f}_i \cdot \mathbf{f}_j}{\|\mathbf{f}_i\| \|\mathbf{f}_j\|} $$ #### 5. **三维形状重建展示** - 从学习特征解码重建原始形状 - 对比原始模型与重建模型: ![重建对比](https://via.placeholder.com/400x200?text=Original+vs+Reconstructed+Shape) *重建效果反映特征表达能力[^3]* #### 6. **检索性能曲线** - 绘制精度-召回率曲线(Precision-Recall Curve) - 计算mAP(平均精度均值)等指标 - 与其他基线方法对比: ![PR曲线示例](https://via.placeholder.com/300x200?text=Precision-Recall+Curve) #### 工具推荐 1. **Python可视化库**: - Matplotlib/Seaborn:2D图表 - Plotly:交互式3D可视化 - PyTorch Grad-CAM:注意力可视化 2. **三维查看器**: - MeshLab - Three.js网页嵌入 - Matplotlib 3D绘图 3. **评估工具包**: ```bash pip install trimesh sklearn-manifold plotly ``` >[!TIP] >对于基于视图的模型(如SHREC17常用方法),建议重点关注**多视图注意力可视化**和**跨视角特征一致性**展示,这能有效揭示模型如何融合多视角信息[^2][^3]。 --- ### 相关问题 1. 在特征空间可视化中,如何解决不同类别样本的严重重叠问题? 2. 对于基于点云的三维检索模型,有哪些特定的可视化技术? 3. 如何量化评估特征可视化结果与人类感知的一致性? 4. 在计算资源有限的情况下,有哪些轻量级的模型可视化方案? [^1]: SHREC17竞赛官方数据集说明 [^2]: 多视图卷积神经网络在三维形状检索中的应用 [^3]: 自监督学习在三维形状表示中的特征可视化研究
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值