tensorboard是可视化的工具,可用于可视化graph和model。可视化graph则可以看到各个节点的连接方式,探究他们之间的依赖关系,在特定的情况下调试模型。
首先让我们搭建一个graph,代码如下:
>>> batch_size=64
>>> g = tf.Graph()
>>>
>>> with g.as_default():
... tf_X = tf.placeholder(shape=(batch_size, 100),
... dtype=tf.float32,
... name='tf_X')
...
... ## build the generator
... with tf.variable_scope('generator'):
... gen_out1 = build_generator(data=tf_X,
... n_hidden=50)
...
... ## build the classifier
... with tf.variable_scope('classifier') as scope:
... ## classifier for the original data:
... cls_out1 = build_classifier(data=tf_X,
... labels=tf.ones(
... shape=batch_size))
...
... ## reuse the classifier for generated data
... scope.reuse_variables()
... cls_out2 = build_classifier(data=gen_out1[1],
... labels=tf.zeros(
... shape=batch_size))
在输入之后,运行.py 文件,即可在对应目录下生成一个新文件夹: logs/.
接着windows打开cmd,然后跳转到指定目录,然后输入tensorboard --logdir logs/
在浏览器地址栏输入对应的地址,就可以得到下面的图片。
然后用鼠标点加号,即可看到classfier和generator的细节
拓展generator可以看到,它是由两个权重的tensor,w1和w2。
在这里我们可以看到,the classifier 有两个输入源,1一个是tf_x ,另一个是generator的输出。