使用FVD时遇到的问题记录:使用tensorflow时batch_size不变的情况下使用数据量更大的dataset发生了显存溢出(OOM)问题 的解决
最新推荐文章于 2025-09-11 01:23:45 发布
在计算FVD时遇到显存溢出(OOM)问题,原因是输入数据维度不匹配。原本应为[bs,t,h,w,c]的格式误处理为[bs,c,t,h,w],导致resize操作后尺寸错误。通过调整resize前的vidshape并使用tensor.permute()修复了问题。注意,batch_size过大可能导致OOM,但数据量大小本身不是直接原因。
3020

被折叠的 条评论
为什么被折叠?



