解释顺序就是代码阅读顺序
训练数据集处理:
1.device = torch.device()->调用GPU还是CPU进行训练
2.传入参数其实是一个判断函数:cuda:0" if torch.cuda.is_available() else "cpu"-》如果有GPU使用GPU进行计算训练,否则使用CPU。
3.预处理函数:transforms.Compose()
4.transforms.RandomResizedCrop(224)-》随机裁剪,裁剪到224x224大小。
5.transforms.RandomHorizontalFlip()-》随机翻转,数据增强一种方法,这里是水平翻转。
6.transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]),-》标准化处理,防止突出数值较高的指标在综合分析中的作用。
测试数据集处理:
1.transforms.Resize((224, 224)),-》强制转化为224x224.
2. transforms.ToTensor(),->转化为张量。
3.transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])}-》标准化处理,防止突出数值较高的指标在综合分析中的作用。
获取数据集:
1.data_root = os.path.abspath()-》获取数据集所在根目录
2.os.getcwd()-》获取当前所在文件的目录
3.os.path.join()-》将传入两个路径连接在一起
4."../.."-》表示返回上上一层目录
5.data_root + "/data_set/flower_data/"-》再从根目录开始向下进行完整目录的拼接。
6.datasets.ImageFolder()-》这个函数加载数据集
7.root=image_path + "/train"-》传入训练集数据路径
8.transform=data_transform["train"]-》调用训练数据集预处理模块,即:
"train": transforms.Compose([transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]),
分类处理:
1.train_dataset.class_to_idx-》通过这个获取分类名称对应索引。
2.cla_dict = dict((val, key) for key, val in flower_list.items()) -》循环遍历数组索引核值并交换重新赋值给数组,这样模型预测出来的直接就是value类别值。
3.json_str = json.dumps(cla_dict, indent=4)-》把字典编码成json格式。
4.with open('class_indices.json', 'w') as json_file: json_file.write(json_str)-》把字典类别索引写入json文件

本文详细解析了使用PyTorch实现AlexNet模型的训练过程,包括数据预处理、模型构建、训练和验证步骤。介绍了如何利用transforms进行数据增强,如随机裁剪、翻转和标准化。同时,文章还涵盖了数据集加载、分类处理、损失函数选择、优化器配置以及模型保存等方面的内容。
最低0.47元/天 解锁文章
1173

被折叠的 条评论
为什么被折叠?



