在Linux服务器上训练模型时,每当训练数据时程序就会自动停掉,报段错误(核心已转储),经过搜索有人说是程序越界了,stack太小了,于是我用ulimit -a
查看了Linux中stack的大小,然后又使用ulimit -c 10240修改stack的大小,还是不行。
然后我就想,既然他说我的数组过大,那我就设置小一点,结果也还是不行。
既然如此至少得找到是在哪里出了问题,然后我利用print语句,发现了出错的位置:

但我还是没想通为啥这里会出错,直到我打印了state,next_state以后我发现,它们已经经过torch.FloatTensor(state).to(device)的处理了(这些数据其实是从一个buffer中采样得到的,在sample返回前就已经处理过了),所以我直接这样:

,然后就没问题了。
至于到底是什么原理,由于我才疏学浅还不大了解,但应该确实跟栈有关系。(递归学的时候就很头大)
当然,这只是一种解决方法啦,因人而异。

博主在Linux服务器上训练模型时遇到程序自动停止并报段错误的问题。经过排查,发现可能是因为数组过大导致栈溢出。尝试通过调整stack大小和限制数组大小未解决问题。最终通过打印变量发现,问题出在对处理过的数据进行操作。修正代码后,问题得到解决。博客提到,尽管不完全理解原理,但问题与栈空间有关。
3635

被折叠的 条评论
为什么被折叠?



