tf.Variable和tf.get_variable()异同

本文对比了TensorFlow中tf.Variable与tf.get_variable的使用差异,重点解析了两者的命名规则、参数设置及与tf.variable_scope配合使用的灵活性。强调了get_variable在变量复用和正则化参数封装上的优势。

相同点:

  • 都是创建Variable对象

  • 创建后的variable如果collection参数是默认,都保存[tf.GraphKeys.GLOBAL_VARIABLES]
    这个tf内部维护的collection

  • 当参数trainableTrue时,同时也保存在[GraphKeys.TRAINABLE_VARIABLES]

  • get_variableinitializer+shape参数 和 Variableinitial_value参数 基础使用下无区别

不同点:

也是本博文的主要目的

1.两者参数的不同

get_variable必须给name

2.并且两者对variable命名规律的不同

-tf.get_variable()对于重名的,如果不设置reuse=True会报错(并且对于reuse=True,可以 不需要initializer,指定reuse变量的名字即可);
-而tf.Variable重名并不报错,而是加后缀来处理重名.

import tensorflow as tf

with tf.variable_scope('V1'):
   a1 = tf.get_variable(name='a1', initializer=tf.zeros([1]))

with tf.variable_scope('V1', reuse=True):
   a3 = tf.Variable(tf.zeros([1]), name='a1')
   a4 = tf.Variable(tf.zeros([1]), name='a1')
   a2 = tf.get_variable('a1')

print('a1:', a1.name)  # a1: V1/a1:0
print('a2:', a2.name)  # a2: V1/a1:0
print('a3:', a3.name)  # a3: V1_1/a1:0
print('a4:', a4.name)  # a4: V1_1/a1_1:0

可以看出,a3 a4加上_1处理,而a2则和a1名字一样
本质上:可以说每次tf.Variable都创建新的variable,所以参数复用这种功能就只能用
tf.get_variable()了。

3.tf.get_variable()封装了regularizer参数,

可以不需要通过tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, a),将avariable放进去

4.配合tf.variable_scope()使用更灵活

with tf.variable_scope('V1',initializer=tf.zeros([1])):
    a1 = tf.get_variable('a1')
    a2 = tf.get_variable('a2', initializer=tf.ones([1]))

tf.get_variable()没有定义initializer,使用tf.variable_scope()的;包括regularizer等参数都是如此

最后博主推荐使用tf.get_variable(),因为暂时没有发现任何值得用tf.Variable的地方~
你们喜欢哪个用哪个!

参考:https://blog.youkuaiyun.com/u012436149/article/details/53696970

`tf.variable_scope` 是 TensorFlow 的一个函数,用于管理变量的命名空间。它可以用来创建共享变量,并控制变量命名的规则作用域。使用 `tf.variable_scope` 可以避免变量名冲突的问题,也可以方便地查看管理变量。 在 TensorFlow 中,变量是我们需要训练的模型参数,`tf.variable_scope` 可以让我们对这些变量进行管理。例如,我们可以使用 `tf.variable_scope` 来给变量命名,如: ``` with tf.variable_scope('my_variable_scope'): weights = tf.get_variable('weights', [784, 256], initializer=tf.random_normal_initializer()) ``` 这里,我们使用 `tf.get_variable` 创建了一个名为 `weights` 的变量,并将其放在了一个名为 `my_variable_scope` 的命名空间中。这样,在后续的代码中,我们就可以通过 `tf.variable_scope` `tf.get_variable` 来方便地获取这个变量,而不用担心变量名冲突的问题。 除了命名空间的管理,`tf.variable_scope` 还可以控制变量的共享。例如,我们可以使用 `reuse` 参数来共享变量: ``` with tf.variable_scope('my_variable_scope'): weights1 = tf.get_variable('weights', [784, 256], initializer=tf.random_normal_initializer()) with tf.variable_scope('my_variable_scope', reuse=True): weights2 = tf.get_variable('weights') ``` 这里,在第一个 `with` 块中,我们创建了一个名为 `weights` 的变量。在第二个 `with` 块中,我们通过将 `reuse` 参数设置为 `True` 来告诉 TensorFlow 我们要共享变量。然后,我们再次调用 `tf.get_variable('weights')` 来获取这个变量,这次 TensorFlow 将返回之前创建的那个变量,而不是创建一个新的变量。这样,我们就可以方便地在不同的代码块中共享变量了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值