Tensorflow学习之重要函数日志

本文介绍了TensorLayer库中threading_data函数的应用方法及其参数详解,包括如何利用该函数进行图像增强等数据预处理操作。此外,还讲解了TensorFlow中add_to_collection与get_collection的用法,演示了如何通过这些函数将多个变量加入到同一集合中,并最终求和。
部署运行你感兴趣的模型镜像

1.tensorlayer.prepro.threading_data(data=None,fn=None,thread_count=None,**kwargs):

        参数:data:the data to be processed

                    fn:the function for data processing

                    thread_count:the number thread to use

并行Threading:类似于pytorch中的dataloader,可以使用一系列数据处理函数fn对图像和label同时处理,也可单独对一个处理

如:images=tl.prepro.threading_data(images,tl.prepro.zoom)  fn的参数由第一个参数传入

2.tf.add_to_collection:把变量放入一个集合,把很多变量变成一个列表

tf.get_collection(name):获取该列表    tf.add_n():将列表中的元素加起来

v1=tf.get_variable(name='v1',shape=[1],initializer=tf.constant_initializer(0))

v2=tf.get_variable(name='v2',shape=[1],initializer=tf.constant_initializer(2))

tf.add_to_collection('loss',v1)

tf.add_to_collection('loss',v2)

with tf.Session() as sess:

        sess.run(tf.initialize_all_variables())

        print(tf.get_collection('loss'))

        print(sess.run(tf.add_n(tf.get_collection('loss'))))





您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

TensorFlow中,可以使用TensorBoard可视化训练过程中的损失函数。具体步骤如下: 1. 在训练过程中,定义一个tf.summary.scalar节点来记录损失函数的值。 ```python loss_summary = tf.summary.scalar('loss', loss) ``` 2. 创建一个tf.summary.FileWriter来将摘要写入TensorBoard日志目录。 ```python summary_writer = tf.summary.FileWriter(log_dir, graph=tf.get_default_graph()) ``` 3. 在每个训练步骤中运行损失函数节点,并将结果添加到摘要中。 ```python _, loss_val, summary = sess.run([train_op, loss, loss_summary], feed_dict=feed_dict) summary_writer.add_summary(summary, global_step=global_step) ``` 4. 在训练完成后,使用以下命令启动TensorBoard: ```python tensorboard --logdir=path/to/log-directory ``` 5. 在浏览器中打开TensorBoard的URL,查看损失函数的图表。 注意:此处的“path/to/log-directory”应替换为您的TensorBoard日志目录的实际路径。 以下是示例代码: ```python import tensorflow as tf import numpy as np # 构建模型 x = tf.placeholder(tf.float32, [None, 1], name='input') y_true = tf.placeholder(tf.float32, [None, 1], name='label') w = tf.Variable(tf.zeros([1, 1]), name='weights') b = tf.Variable(tf.zeros([1, 1]), name='bias') y_pred = tf.matmul(x, w) + b # 定义损失函数 loss = tf.reduce_mean(tf.square(y_true - y_pred)) loss_summary = tf.summary.scalar('loss', loss) # 定义优化器 train_op = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(loss) # 准备数据 x_train = np.random.rand(100, 1) y_train = x_train * 2 + np.random.randn(100, 1) * 0.1 # 创建TensorBoard日志目录 log_dir = './logs' # 创建会话并开始训练 with tf.Session() as sess: sess.run(tf.global_variables_initializer()) # 创建摘要写入器 summary_writer = tf.summary.FileWriter(log_dir, graph=tf.get_default_graph()) # 开始训练 for i in range(1000): feed_dict = {x: x_train, y_true: y_train} _, loss_val, summary = sess.run([train_op, loss, loss_summary], feed_dict=feed_dict) summary_writer.add_summary(summary, global_step=i) # 关闭摘要写入器 summary_writer.close() ``` 运行完上述代码后,执行以下命令启动TensorBoard: ``` tensorboard --logdir=./logs ``` 然后在浏览器中打开TensorBoard的URL,即可查看损失函数的图表。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值