DAY 38 Dataset和Dataloader类

目录

一、Dataset类

1、__getitem__方法

2、__len__方法

二、Dataloader类

三、总结


知识点回顾:

  1. Dataset类的__getitem__和__len__方法(本质是python的特殊方法)
  2. Dataloader类
  3. minist手写数据集的了解

        在遇到大规模数据集时,显存常常无法一次性存储所有数据,所以需要使用分批训练的方法。为此,PyTorch提供了DataLoader类,该类可以自动将数据集切分为多个批次batch,并支持多线程加载数据。此外,还存在Dataset类,该类可以定义数据集的读取方式和预处理方式

  1. DataLoader类:决定数据如何加载

  2. Dataset类:告诉程序去哪里找数据,如何读取单个样本,以及如何预处理。

        为了引入这些概念,我们现在接触一个新的而且非常经典的数据集:MNIST手写数字数据集。该数据集包含60000张训练图片和10000张测试图片,每张图片大小为28*28像素,共包含10个类别。因为每个数据的维度比较小,所以既可以视为结构化数据,用机器学习、MLP训练,也可以视为图像数据,用卷积神经网络训练。        

import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, Dataset  # DataLoader是PyTorch中用于加载数据的工具
from torchvision import datasets, transforms  # torchvision是一个计算机视觉的库,datasets 和 transforms是其中的模块
import matplotlib.pyplot as plt

# 设置随机种子,使结果可复现
torch.manual_seed(42)

1、数据预处理,该写法非常类似于管道pipeline

# 1. 数据预处理,该写法非常类似于管道pipeline
# transforms 模块中提供了一系列常用的图像预处理操作

# 先归一化,再标准化
transform = transforms.Compose([
  transforms.ToTensor(),  # 转换为张量并归一化到[0,1]
  
  # 使用MNIST数据集的全局均值(0.1307)和标准差(0.3081)对张量进行标准化处理
  transforms.Normalize((0.1307,),(0.3081,))  # MNIST数据集的均值和标准差,这个值很出名,所以直接使用
])

2、加载MNIST数据集,若没有会自动下载

# 2. 加载MNIST数据集,若没有会自动下载
train_dataset = datasets.MNIST(
  root='./data',  # 下载到当前工作目录下的 data 文件夹
  train=True,
  download=True,
  transform=transform
)

test_dataset = datasets.MNIST(
  root='./data',
  train=False,
  transform=transform
)

        这里稍微有点反逻辑,正常思路应该是先有数据集,后续再处理。但是在pytorch的思路是,数据在加载阶段就处理结束。

一、Dataset类

        现在我们想要取出来一个图片,看看长啥样,因为datasets.MNIST本质上集成了torch.utils.data.Dataset,所以自然需要有对应的方法。

import matplotlib.pyplot as plt

# 随机选择一张图片,可以重复运行,每次都会随机选择
# torch.randint() 函数用于生成一个指定范围内的随机数;len(train_dataset)表示训练集的图片数量;size=(1,)表示返回一个索引;.item()将张量转换为 Python 数字
sample_idx = torch.randint(0, len(train_dataset), size=(1,)).item()  # 随机选择一张图片的索引
image, label = train_dataset[sample_idx]  # 获取图片和标签

        这里很难理解,为什么 train_dataset[sample_idx] 可以获取到图片和标签,是因为 datasets.MNIST 这个类继承了 torch.utils.data.Dataset类,这个类中有一个方法__getitem__,这个方法会返回一个tupletuple中第一个元素是图片,第二个元素是标签。

我们来详细介绍下torch.utils.data.Dataset类

PyTorch 的torch.utils.data.Dataset是一个抽象基类,所有自定义数据集都需要继承它并实现两个核心方法:

  • len():返回数据集的样本总数。

  • getitem(idx):根据索引idx返回对应样本的数据和标签。

        PyTorch 要求所有数据集必须实现__getitem____len__,这样才能被DataLoader等工具兼容。这是一种接口约定,类似函数参数的规范。这意味着,如果你要创建一个自定义数据集,你需要实现这两个方法,否则PyTorch将无法识别你的数据集。

        在 Python 中,__getitem__和__len__ 是类的特殊方法(也叫魔术方法 ),它们不是像普通函数那样直接使用,而是需要在自定义类中进行定义,来赋予类特定的行为。以下是关于这两个方法具体的使用方式:

1、__getitem__方法

__getitem__方法用于让对象支持索引操作,当使用[]语法访问对象元素时,Python 会自动调用该方法。

# 示例代码
class Mylist:
  def __init__(self):
    self.data = [10, 20, 30, 40, 50]

  def __getitem__(self, idx):
    return self.data[idx]

# 创建类的实例
my_list = Mylist()
# 使用索引访问元素,会自动调用__getitem__方法
print(my_list[2])  # 输出 30

# # 没有__getitem__函数时这样调用
# print(my_list.data[2])  # 输出 30

通过定义__getitem__方法,让MyList类的实例能够像 Python 内置的列表一样使用索引获取元素。

2、__len__方法

        __len__方法用于返回对象中元素的数量,当使用内置函数 len() 作用于对象时,Python 会自动调用该方法。

class Mylist:
  def __init__(self):
    self.data = [10, 20, 30, 40, 50]

  def __len__(self):
    return len(self.data)

my_list = Mylist()
# 使用len()函数获取元素数量,会自动调用__len__方法
print(len(my_list))  # 输出 5

这里定义的__len__方法,使得MyList类的实例可以像普通列表一样被len()函数调用获取长度。

# minist数据集的简化版本
class MNIST(Dataset):
  def __init__(self, root, train=True, transform=None):
    # 初始化:加载图片路径和标签
   fetch_minst_data, self.targets =  fetch_minst_data(root, train)  # 这里假设fetch_minst_data是一个函数,用于加载 MNIST 数据集的图片路径和标签
   self.transform = transform  # 预处理操作

  def __len__(self):
    return len(self.data)

  def __getitem__(self, idx):
    # 获取指定索引的图像和标签
    img, target = fetch_minst_data[idx], self.targets[idx]

    # 应用图像预处理(如ToTensor、Normalize)
    if self.transform is not None:  # 若有预处理操作
      img = self.transform(img)  # 转换图像格式
      # 这里假设 img 是一个 PIL 图像对象,transform 会将其转换为张量并进行归一化

    return img, target  # 返回处理后的图像和标签

  • Dataset = 厨师(准备单个菜品)

  • DataLoader = 服务员(将菜品按订单组合并上桌)

预处理(如切菜、调味)属于厨师的工作,而非服务员。所以在dataset就需要添加预处理步骤。

# 可视化原始图像(需要反归一化)
def imshow(img):
    img = img * 0.3081 + 0.1307  # 反标准化
    npimg = img.numpy()
    plt.imshow(npimg[0], cmap='gray') # 显示灰度图像
    plt.show()

print(f"Label: {label}")
imshow(image)

输出:

Label: 6

二、Dataloader类

 3、创建数据加载器

# 3. 创建数据加载器
train_loader = DataLoader(
    train_dataset,
    batch_size=64, # 每个批次64张图片,一般是2的幂次方,这与GPU的计算效率有关
    shuffle=True # 随机打乱数据
)

test_loader = DataLoader(
    test_dataset,
    batch_size=1000 # 每个批次1000张图片
    # shuffle=False # 测试时不需要打乱数据
)

三、总结

@浙大疏锦行

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值