1、tf.floor(x, name=None) 是向下取整,3.6=>3.0;
tf.ceil(x, name=None) 是向上取整,3.6=>4.0。
2、tf.train.batch([example, label], batch_size=batch_size, capacity=capacity):[example, label]表示样本和样本标签,这个可以是一个样本和一个样本标签,batch_size是返回的一个batch样本集的样本个数。capacity是队列中的容量。这主要是按顺序组合成一个batch;
tf.train.shuffle_batch([example, label], batch_size=batch_size, capacity=capacity, min_after_dequeue)。这里面的参数和上面的一样的意思。不一样的是这个参数min_after_dequeue,一定要保证这参数小于capacity参数的值,否则会出错。这个代表队列中的元素大于它的时候就输出乱的顺序的batch。也就是说这个函数的输出结果是一个乱序的样本排列的batch,不是按照顺序排列的。
上面的函数返回值都是一个batch的样本和样本标签,只是一个是按照顺序,另外一个是随机的
本文介绍了TensorFlow中两种批量处理数据的方法:tf.train.batch和tf.train.shuffle_batch。前者按顺序组合样本为批次,后者则随机打乱样本顺序。两者都接受相同的参数如样本、标签、批次大小及队列容量等,但tf.train.shuffle_batch还额外需要min_after_dequeue参数来控制何时开始乱序。
741

被折叠的 条评论
为什么被折叠?



