Pytorch 低端错误笔记

本文解析了Pytorch中遇到的ValueError: Expected input batch_size与target batch_size不匹配的问题,详细介绍了如何调整网络输入尺寸以适配不同大小的数据集,并探讨了自定义数据集引起的BrokenPipeError及解决方案。
  1. ValueError: Expected input batch_size (16) to match target batch_size (4).
    原因:之前用的数据集输入尺寸为batch*3*32*32,每张图片尺寸为3*32*32,现在的是3*64*64,因此需要修改网络输入尺寸,否则Pytorch会将输入resize到原来的3*32*32,以新的数据集为3*64*64来说,就会将一个输入resize成4个,得到4*batch*3*32*32的Tensors,因此batchsize也会产生错误,变为原来的4倍,也就是target的4倍。
    对于我来说,我用了transformsRandomCrop
#Define transformations for the training set, 
#flip the images randomly, crop out and apply mean and std normalization
train_transformations = transforms.Compose([
    transforms.RandomHorizontalFlip(),
    
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值