生成对抗网络与视频字幕应用技术解析
1. 构建训练过程
在训练生成对抗网络(GAN)时, train_network 函数是核心部分。首先,我们为生成器和判别器的损失函数定义优化器,这里使用 Adam 优化器,它是随机梯度下降优化器的高级版本,在训练 GAN 时表现出色。Adam 利用梯度的衰减平均值(类似于动量以保持稳定梯度)和梯度平方的衰减平均值(提供关于成本函数曲率的信息)。通过 tf.summary 定义的不同损失变量会写入日志文件,可通过 TensorBoard 进行监控。
以下是 train_network 函数的详细代码:
def train_network(self):
self.learning_rate = tf.placeholder(tf.float32)
self.d_optimizer = tf.train.AdamOptimizer(self.learning_rate, beta1=self.beta1, beta2=self.beta2)
self.g_optimizer = tf.train.AdamOptimizer(self.learning_rate, beta1=self.beta1, beta2=self.beta2)
self.init_op = tf.global_variables_initializer()
self.sess = tf.Session()
self.sess.run(self.init_op)
# se
超级会员免费看
订阅专栏 解锁全文
9458

被折叠的 条评论
为什么被折叠?



