tensorflow调试: tf.Print()

调试程序时,常需检查model或函数中的局部参数,因TensorFlow先构建计算图再运算的机制,不能直接print。介绍了tf.Print()函数的使用,包括各参数含义,强调需run后才打印,还提及用print输出中间局部参数的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原文地址:https://blog.youkuaiyun.com/thormas1996/article/details/81224405

调试程序的时候,经常会需要检查中间的参数,这些参数一般是定义在model或是别的函数中的局部参数,由于tensorflow要求先构建计算图再运算的机制,也不能定义后直接print出来。tensorflow有一个函数tf.Print(),当然用python本身的print也可以,这个稍后提及。

tf.Print(input, data, message=None, first_n=None, summarize=None, name=None)

最低要求两个输入,input和data,input是需要打印的变量的名字,data要求是一个list,里面包含要打印的内容。

message是需要输出的错误信息

first_n指只记录前n次

summarize是对每个tensor只打印的条目数量,如果是None,对于每个输入tensor只打印3个元素

name是op的名字

需要注意的是tf.Print()只是构建一个op,需要run之后才会打印。

例子:

x=tf.constant([2,3,4,5])
x=tf.Print(x,[x,x.shape,'test', x],message='Debug message:',summarize=100)
 
with tf.Session() as sess:
    sess.run(x)
 
#Debug message:[2 3 4 5][4][test][2 3 4 5]
 
x=tf.Print(x,[x,x.shape,'test', x],message='Debug message:',summarize=2)
 
with tf.Session() as sess:
    sess.run(x)
 
#Debug message:[2 3...][4][test][2 3...]

输出是在命令窗口中,和print有区别

用print也可以输出:

x=tf.constant([2,3,4,5])
 
with tf.Session() as sess:
    print(sess.run(x))
 
#[2,3,4,5]

如果希望打印的参数是一个中间参数,换言之是一个局部参数不会被传回主函数。那么首先需要定义一个全局参数去保存它,一般在函数就是定义在最前面的self.para = para,再在主函数中print出来。


--------------------- 
作者:thormas1996 
来源:优快云 
原文:https://blog.youkuaiyun.com/thormas1996/article/details/81224405 
版权声明:本文为博主原创文章,转载请附上博文链接!

using NumSharp; using System; using System.Linq; // 用于Enumerable.Range using Tensorflow; // 核心TensorFlow命名空间 using Tensorflow.Keras; // Keras API using Tensorflow.Keras.ArgsDefinition; // 模型参数定义 using Tensorflow.Keras.Engine; // 模型基类 using static Tensorflow.Binding; // 静态绑定tf对象 using static Tensorflow.KerasApi; namespace DNN_Keras { public class LinearRegressionKeras { class Program { static void Main() { TFNET tfnet = new(); tfnet.Run(); } } public class TFNET { public void Run() { Tensor x = tf.constant (new[,] { { 1.0f,2.0f,3.0f}, { 4.0f,5.0f,6.0f} });// 输入数据(2个样本,3特征) Tensor y = tf.constant (new[,] { { 10.0f }, { 20.0f} }); // 真实标签 var model = new Linear(new ModelArgs { InputShape = (3) }); // 初始化模型(需指定输入形状) var optimizer = keras.optimizers.SGD(learning_rate: 0.01f); // Keras优化器 // 训练循环(20轮) foreach (var step in Enumerable.Range(0, 20)) { using var g = tf.GradientTape(); var y_pred = model.Apply(x);// 前向传播 var loss = tf.reduce_mean(tf.square(y_pred - y)); // MSE损失 var grads = g.gradient(loss, model.TrainableVariables);// 计算梯度(自动收集model的可训练变量) // 手动更新参数(配对梯度与变量) for (int i = 0; i < grads.Length; i++) optimizer.apply_gradients([(grads[i], model.TrainableVariables[i])]); Console.WriteLine($"step:{step},loss:{loss.numpy()}"); } Console.WriteLine(model.TrainableVariables.ToArray()); Console.ReadKey(); } } public class Linear:Model { private readonly Layer dense; public Linear(ModelArgs args):base(args) { dense = (Layer)keras.layers.Dense(1, activation: null, kernel_initializer: tf.zeros_initializer, bias_initializer: tf.zeros_initializer); StackLayers(dense); } protected virtual Tensors Call(Tensor inputs,bool training = false) { var outputs = dense.Apply(inputs); return outputs; } } } } 运行如下step:0,loss:145.16667 step:1,loss:145.16667 step:2,loss:145.16667 step:3,loss:145.16667 step:4,loss:145.16667 step:5,loss:145.16667 step:6,loss:145.16667 step:7,loss:145.16667 step:8,loss:145.16667 step:9,loss:145.16667 step:10,loss:145.16667 step:11,loss:145.16667 step:12,loss:145.16667 step:13,loss:145.16667 step:14,loss:145.16667 step:15,loss:145.16667 step:16,loss:145.16667 step:17,loss:145.16667 step:18,loss:145.16667 step:19,loss:145.16667 Tensorflow.IVariableV1[]
最新发布
06-26
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值