今天跟着书学习 TF 的时候,看到代码示例里面有这么一段代码:
import tensorflow as tf
...
w1 = tf.random_normal([2,3], stddev=1, seed=1)
w2 = tf.random_normal([3,1], stddev=1, seed=1)
...
我们知道 tf.random_normal 方法是生成随机的矩阵参数,如上例中就是生成一个3×1的矩阵,stddev 参数是控制方差,这些都好理解,就是看到这个 seed 参数的时候有点懵,下面截取的是官方 API 的解释:
seed: A Python integer. Used to create a random seed for the distribution. Seetf.set_random_seedfor behavior.
我查阅了一些博客,基本上都是对这段官文的翻译,请原谅我看了翻译依然没搞懂。再回到书上,书上给出的解释简直“言简意赅”,如下:
保证每次运行时的参数不变
虽然没搞明白如何不变,但起码知道了作用。但不搞明白总觉得有点不舒服,于是开始实验。
首先把 seed 设置为 1
import tensorflow as tf
// 把 seed 设置为 1
w1 = tf.random_normal([2,3], stddev=1, seed=1)
w2 = tf.random_normal([3,1], stddev=1, seed=1)
sess = tf.Session()
sess.run(w1.initializer)
sess.run(w2.initializer)
print(sess.run(w1))
print(sess.run(w2))
sess.close()
我们看到输出结果
[[-0.8113182 1.4845988 0.06532937]
[-2.4427042 0.0992484 0.5912243 ]]
[[-0.8113182 ]
[ 1.4845988 ]
[ 0.06532937]]
然后把 seed 设置为 2,代码不贴了,直接看输出结果
[[-0.85811085 -0.19662298 0.13895045]
[-1.2212768 -0.40341285 -1.1454041 ]]
[[-0.85811085]
[-0.19662298]
[ 0.13895045]]
最后把 w1 的 seed 设回 1,w2 保持不变,结果如下
[[-0.8113182 1.4845988 0.06532937]
[-2.4427042 0.0992484 0.5912243 ]]
[[-0.85811085]
[-0.19662298]
[ 0.13895045]]
晚上,我换了一台电脑重复以上的实验,发现 seed 在等于 1 和 2 的时候,数据是完全一样的,所以我推断的结论是:seed 其实是一些预设的数据。
补充:如果给定seed,随机数每次生成的结果都是一样的,也就是说每次运行程序时结果都是一样的,即结果可以复现。
原文:https://www.jianshu.com/p/2a325d549da7
本文深入探讨了TensorFlow中random_normal函数的seed参数作用,通过实验验证了当指定seed值时,即使在不同环境中运行,生成的随机数序列也会保持一致,确保了结果的可复现性。
3125

被折叠的 条评论
为什么被折叠?



