在写强化学习作业的时候,遇到很多tf函数,在这里整理记录一下。
tf.variable_scope()
# tf.variable_scope可以让不同命名空间中的变量取相同的名字,无论tf.get_variable或者tf.Variable生成的变量
tf.placeholder()
# placeholder()函数是在神经网络构建graph的时候在模型中的占位,此时并没有把要输入的数据传入模型,它只会分配必要的内存。
tf.subtract(x, y, name=None)
# 返回 x-y 的元素。
tf.reduce_mean()
# 用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值。
tf.distributions.Normal(loc, scale)
#该函数定义了一个正态分布。loc是均值, scale是标准差。
self.normal_dist = tf.distributions.Normal(self.mu, self.sigma)
# 根据Mu和sigma求出一个正太分布,这个是随机的正态分布
tf.squeeze()
# 从张量形状中移除大小为1的维度.
zip()
# 将可迭代的对象作为参数,将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表
这篇博客介绍了在强化学习作业中遇到的几个TensorFlow核心函数。tf.variable_scope允许在不同命名空间中重用变量名。tf.placeholder用于构建模型时设置输入占位符,不立即传入数据。tf.subtract执行减法操作,tf.reduce_mean计算张量的平均值,常用于降维。此外,还讲解了如何使用tf.distributions.Normal创建正态分布,并通过self.normal_dist生成随机正态分布。最后,tf.squeeze用于移除张量中大小为1的维度。了解这些函数对于理解和实现深度学习模型至关重要。
1236

被折叠的 条评论
为什么被折叠?



