写一些不好记得+常用的。 一些简单的就不做记录了
1.tf.Session()和tf.InteractiveSession()
tf.Session():需要在启动session之前构建整个计算图,然后启动该计算图。
意思就是在我们使用tf.InteractiveSession()来构建会话的时候,我们可以先构建一个session然后再定义操作(operation),如果我们使用tf.Session()来构建会话我们需要在会话构建之前定义好全部的操作(operation)然后再构建会话。
而tf.InteractiveSession():它能让你在运行图的时候,插入一些计算图,这些计算图是由某些操作(operations)构成的。这对于工作在交互式环境中的人们来说非常便利,比如使用IPython,jupter notebook。
在有InteractiveSession()声明的条件下,不用sess.run也可以将结果打印。
关闭的时候,使用sess.close()函数
2. *和matmul
*相当于向量内积,即对应元素相乘。而matmul(x,y)则是将矩阵相乘。
3.tf.where和tf.greater用法
tf.greater(x,y):
比较x,y中每个对应元素返回一个true和false的矩阵
tf.where(A1,x,y)
A为一个条件选择根据,条件为true,选择第二个参数的值,否则选择第三个参数的值
import tensorflow as tf
vl = tf.constant ([ l.0 , 2 . 0 , 3 . 0 , 4 . 0 ))
v2 = tf.constant([4 . 0 , 3 . 0, 2 . 0 , 1.0])
sess = tf.InteractiveSession()
print tf.greater(vl, v2) . eval()
#输出[False False True True]
print tf.where(tf.greater(vl , v2), vl , v2) . eval()
#输出[ 4. 3. 3. 4. J
sess. close ()
4. tf.train.exponential_decay
学习率的选择——指数衰减法
example:
learning_rate = tf.train.exponential_decay(0.1,global_step,100,0.96,staircase=True)
初始学习率为0.1,没训练一轮以后学习率乘以0.96