目的:观察模型的参数、损失值等变量值的变化
一、收集变量
(一)tf.summary.scalar(name=’’,tensor)收集对于损失函数和准确率等单值变量,name为变量的名字,tensor为值。
(二)tf.summary.histogram(name=’’,tensor)收集高维度的变量参数。
(三)tf.summary.image(name=’’,tensor)收集输入的图片张量能显示图片
二、合并变量写入事件文件
(一)merged = tf.summary.merge_all()
(二)运行合并:summary = sess.sun(merged)每次迭代都需要运行
(三)添加:FileWriter.add_summary(summary,i),i表示第几次的值。
例如:
import tensorflow as tf
#训练参数问题:trainable
#学习率和步数的设置:
#添加权重参数,损失值等在tensorboard观察的情况 1、收集变量 2、合并变量写入事件文件
def myregression():
“”"
自实现一个线性回归预测
:return:None
“”"
with tf.variable_scope(‘data’):
#1、准备数据,x 特征值 [100,1] y目标值[100]
x = tf.random_normal([100,1],mean=1.75,stddev=0.5,name='x_data')
#矩阵相乘必须是二维的
y_true = tf.matmul(x,[[0.7]]) + 0.8
with tf.variable_scope('model'):
#2、建立线性回归模型,1个特征,1个权重,1个偏置y = x*w +b
#随机给一个权重和偏置的值,让它去计算损失,然后在当前状态下优化
#用变量定义才能优化
#trainable参数:指定这个变量能跟着梯度下降一起优化
weight = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0),name='w')
bias = tf.Variable(0.0,name='b')
y_predict = tf.matmul(x, weight) + bias
with tf.variable_scope('loss'):
#3、建立损失函数,均方误差
loss = tf.reduce_mean(tf.square(y_true - y_predict))
with tf.variable_scope('optimizer'):
#4、梯度下降优化损失 learning_rate:0-1,2,3,5,7,10
train_op = tf.train.GradientDescentOptimizer(0.001).minimize(loss)
#1、收集tensor
tf.summary.scalar('losses',loss)
tf.summary.histogram('weights',weight)
#定义合并tensor的op
merged = tf.summary.merge_all()
#定义一个初始化变量的op
init_op = tf.global_variables_initializer()
#通过会话运行程序
with tf.Session() as sess:
#初始化变量
sess.run(init_op)
#打印随机最先初始化的权重和偏置
print('随机初始化的参数权重为: %f,偏置为: %f' % (weight.eval(),bias.eval()))
#建立事件文件
filewriter = tf.summary.FileWriter('.深度学习/test',graph=sess.graph)
#循环训练 运行优化
for i in range(200):
sess.run(train_op)
#运行合并的tensor
summary = sess.run(merged)
filewriter.add_summary(summary,i)
print('第%d次优化参数权重为: %f,偏置为: %f' % (i,weight.eval(), bias.eval()))
return None
if name == ‘main’:
myregression()