Tensorflow(三十二) —— 梯度爆炸
解决方案
import tensorflow as tf
from tensorflow import keras
# solve gradient exploding
with tf.GradientTape() as tape:
logits = model(x)
loss = tf.losses.categorical_crossentropy(y,logits,from_logits=True)
grads = tape.gradient(loss,model.trainable_variables)
grads = [tf.clip_by_norm(g,15) for g in grads]
optimizer.apply_gradients(zip(grads,model.trainable_variables))
本文为参考龙龙老师的“深度学习与TensorFlow 2入门实战“课程书写的学习笔记
by CyrusMay 2022 04 16
本文介绍了如何在TensorFlow中通过梯度裁剪技术来避免梯度爆炸问题,通过实例演示了如何在训练过程中应用clip_by_norm函数,并结合实际课程进行讲解。
2069

被折叠的 条评论
为什么被折叠?



