Tensorboard_网络结构

本文介绍了一个基于TensorFlow的手写数字识别模型实现过程。通过加载MNIST数据集,构建包含输入层、隐藏层和输出层的简单神经网络,并利用TensorBoard可视化网络结构。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import tensorflow as tf  
from tensorflow.examples.tutorials.mnist import input_data  
  
#载入数据集  
mnist = input_data.read_data_sets("MNIST_data",one_hot=True)  
  
#每个批次的大小和总共有多少个批次  
batch_size = 100  
n_batch = mnist.train.num_examples // batch_size  

#命名空间
with tf.name_scope("input"):
    #定义两个placeholder  
    x = tf.placeholder(tf.float32,[None,784], name = "x_input")  
    y = tf.placeholder(tf.float32,[None,10], name = "y_input")  
  
with tf.name_scope("layer"):
    #创建一个简单的神经网络 
    with tf.name_scope('weights'):
        W = tf.Variable(tf.zeros([784,10]), name='W') 
    with tf.name_scope('biases'):    
        b = tf.Variable(tf.zeros([10]), name='b') 
    with tf.name_scope('wx_plus_b'):  
        wx_plus_b = tf.matmul(x,W)+b
    with tf.name_scope('softmax'):
        prediction = tf.nn.softmax(wx_plus_b)  

with tf.name_scope('loss'):
    #交叉熵代价函数 
    loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y, logits=prediction))  
with tf.name_scope('train'):
    #使用梯度下降法 
    train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)  
  
#初始化变量  
init = tf.global_variables_initializer()  

with tf.name_scope('accuracy'):
    with tf.name_scope('correct_prediction'):
        #结果存放在一个布尔型列表中  
        correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))#argmax返回一维张量中最大的值所在的位置  
    with tf.name_scope('accuracy'):
        #求准确率  
        accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))  
  
with tf.Session() as sess:  
    sess.run(init)  
    writer = tf.summary.FileWriter("log/", sess.graph) #写入到的位置
    for epoch in range(1):  
        for batch in range(n_batch):  
            batch_xs,batch_ys =  mnist.train.next_batch(batch_size)  
            sess.run(train_step,feed_dict={x:batch_xs, y:batch_ys})  
          
        acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})  
        print("epoch " + str(epoch)+ "   acc " +str(acc))  

在学习神经网络的时候,我们都希望能直观的看到我们搭建的网络到底是什么样子的,Tensorboard就实现了这个功能。

其实很简单,就是在定义变量,搭建网络,loss函数,训练优化器等语句之前加上 with tf.name_scope(" "):

运行程序,打开命令行界面,切换到 log 所在目录,输入

tensorboard --logdir= --logdir=C:\Users\Administrator\Desktop\Python\log

接着会返回一个链接,类似 http://PC-20160926YCLU:6006

打开谷歌浏览器或者火狐,输入网址即可查看搭建的网络结构。

注意:如果对网络进行更改之后,在运行之前应该先删除log下的文件,在Jupyter中应该选择Kernel----->Restar & Run All, 否则新网络会和之前的混叠到一起。因为每次的网址都是一样的,在浏览器刷新页面即可。实验结果如下:


要查看Tensorboard中的网络结构,可以按照以下步骤进行操作: 1. 安装Tensorboard:在指定的conda环境下使用pip install tensorboard命令,安装Tensorboard库。 2. 导入模块:在代码中导入torch.utils.tensorboard模块中的SummaryWriter。可以使用以下代码实例化SummaryWriter并定义输出路径:writer = SummaryWriter('./log')。 3. 输出模型结构:使用writer.add_graph方法将模型结构输出到Tensorboard。例如,通过双击CRSPHS中的子网络,可以查看内部结构。另外,在刚开始没有判断GPU还是CPU模型时,可以使用以下代码输出模型结构:graph_inputs = torch.ones((1,1,28,28),dtype = torch.float32) writer.add_graph(model, graph_inputs)。 4. 查看网络结构:在运行train.py后,会在指定的输出路径(例如'./log'文件夹)下保存一个类似events.out.tfevents.xxx的文件。可以使用Tensorboard命令运行该文件,然后在浏览器中打开生成的网址,就可以查看网络结构了。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [PyTorch可视化工具-Tensorboard在线查看训练曲线、网络结构图等](https://blog.youkuaiyun.com/m0_51233386/article/details/127645795)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值