tensorflow踩坑记录

博主在寒假期间学习TensorFlow并搭建网络进行训练,分享了ResourceExhaustedError和ValueError的解决经验,特别是在搭建双向LSTM网络时遇到的变量重复问题及其解决方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

为了下学期的实验做准备,我在寒假学习了tensorflow,边学边搭建网络进行训练。在学习的路上踩了不少坑,但是总体还算顺利。这些坑中,除了网络本身的bug和tf语法错误,还有几个特别要注意的异常。

ResourceExhaustedError

这个异常表示资源耗尽,通常指在为参数变量申请内存(显存)时,剩余可用空间不足。解决办法主要有三条思路

  1. 使用CPU训练
  2. 减少网络的参数变量
    减小batch_size、词向量维度、网络层数、神经元个数
  3. 使用更好的GPU

ValueError: Variable rnn/basic_lstm_cell/kernel already exists, disallowed.

我在搭建双向lstm网络时遇到此问题。
forward_lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size)
backward_lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size)
在网上查了异常,坑友都指出此异常与变量作用域有关,但是解决方案都不一样,包括使用with tf.variable_scope(name):pass来定义作用域,还有在代码中添加t f.reset_default_graph()。
具体的原理我暂时没有探究。我试着为这两层网络分别添加名称,问题解决。
forward_lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size, name = 'forward_lstm_cell')
backward_lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size, name = 'backward_lstm_cell')

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值