在运行模型框架时,遇到标题问题
问题很明显可以看出是batch_size设置问题
此时,本人问题出在代入损失函数计算上
所以,我们可以通过如下方法进行
一、在读取数据集数据前加上代码
with torch.no_grad():
for data in test_dataload:
img, target = data
二、修改转化数据集的格式代码 即减小Resize
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
transforms.RandomVerticalFlip(),
transforms.ToTensor(),
normalize
])
test_transform = transforms.Compose([
transforms.Resize((224, 224)),
transforms.ToTensor(),
normalize
])
三、直接减小Batch_size
train_dataload = DataLoader(dataset=train_data, batch_size=8)
test_dataload = DataLoader(dataset=test_data, batch_size=8, shuffle=True)
当在运行模型时遇到由于batch_size导致的问题,可以尝试以下解决方案:1) 使用`torch.no_grad()`上下文管理器读取数据;2) 调整数据集转换代码,减小Resize操作;3) 直接降低训练和测试数据加载器的batch_size。这些方法有助于优化计算过程,减少内存消耗。
1万+

被折叠的 条评论
为什么被折叠?



