解释顺序就是代码阅读顺序
训练数据集处理:
1.device = torch.device()->调用GPU还是CPU进行训练
2.传入参数其实是一个判断函数:cuda:0" if torch.cuda.is_available() else "cpu"-》如果有GPU使用GPU进行计算训练,否则使用CPU。
3.预处理函数:transforms.Compose()
4.transforms.RandomResizedCrop(224)-》随机裁剪,裁剪到224x224大小。
5.transforms.RandomHorizontalFlip()-》随机翻转,数据增强一种方法,这里是水平翻转。
6.transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]),-》标准化处理,防止突出数值较高的指标在综合分析中的作用。
测试数据集处理:
1.transforms.Resize((224, 224)),-》强制转化为224x224.
2. transforms.ToTensor(),->转化为张量。
3.transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])}-》标准化处理,防止突出数值较高的指标在综合分析中的作用。
获取数据集:
1.data_root = os.path.abspath()-》获取数据集所在根目录
2.os.getcwd()-》获取当前所在文件的目录
3.os.path.join()-》将传入两个路径连接在一起
4."../.."-》表示返回上上一层目录
5.data_root + "/data_set/flower_data/"-》再从根目录开始向下进行完整目录的拼接。
6.datasets.ImageFolder()-》这个函数加载数据集
7.root=image_path + "/train"-》传入训练集数据路径
8.transform=data_transform["train"]-》调用训练数据集预处理模块,即:
"train": transforms.Compose([transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Norm

本文详细解读了使用PyTorch实现GoogleNet模型的训练过程,包括数据预处理、训练与测试数据集的处理、数据集的加载、分类处理以及模型训练的关键参数设置。在数据预处理中,涉及随机裁剪、翻转和标准化等步骤,以增强数据并避免数值不平衡的影响。此外,还介绍了如何将分类索引保存为JSON文件,以便于后期处理。整个训练过程采用32批次大小,利用GPU或CPU资源,并利用辅助分类器提升模型性能。
最低0.47元/天 解锁文章
3881

被折叠的 条评论
为什么被折叠?



