【pytorch】dataset类的使用

一、dataset定义

在PyTorch中,Dataset是数据加载的核心抽象类,其使用流程主要分为自定义数据集和数据加载器配置两部分。
方法的说明:
meth:__getitem__根据索引返回单个样本及其标签。
meth:__len__返回数据集样本总数。

class Dataset(Generic[T_co]):
    r"""An abstract class representing a :class:`Dataset`.

    All datasets that represent a map from keys to data samples should subclass
    it. All subclasses should overwrite :meth:`__getitem__`, supporting fetching a
    data sample for a given key. Subclasses could also optionally overwrite
    :meth:`__len__`, which is expected to return the size of the dataset by many
    :class:`~torch.utils.data.Sampler` implementations and the default options
    of :class:`~torch.utils.data.DataLoader`.

    .. note::
      :class:`~torch.utils.data.DataLoader` by default constructs a index
      sampler that yields integral indices.  To make it work with a map-style
      dataset with non-integral indices/keys, a custom sampler must be provided.
    """

二、dataset类读取数据

from torch.utils.data import Dataset
from PIL import Image
import os


class MyDataset(Dataset):
    def __init__(self, root_dir, label_dir):
        self.root_dir = root_dir
        self.label_dir = label_dir
        self.path = os.path.join(self.root_dir, self.label_dir)
        self.img_path = os.listdir(self.path)

    def __getitem__(self, idx):
        img_name = self.img_path[idx]
        img_item_path = os.path.join(self.root_dir, self.label_dir, img_name)
        img = Image.open(img_item_path)
        label = self.label_dir
        return img, label

    def __len__(self):
        return len(self.img_path)


ants_dataset = MyDataset(root_dir=r'dataset/train', label_dir='ants')

bees_dataset = MyDataset(root_dir=r'dataset/train', label_dir='bees')

train_data = ants_dataset + bees_dataset
print(len(train_data))
print(train_data[0])

输出
在这里插入图片描述

### PyTorch 中 `Dataset` 的用法 在 PyTorch 中,为了高效处理数据并将其输入到模型中进行训练或评估,设计了一套灵活的数据加载机制。核心组件之一就是 `Dataset` [^1]。 #### 继承 `Dataset` 要创建自定义数据集,需先导入必要的模块: ```python from torch.utils.data import Dataset, DataLoader ``` 接着通过继承 `Dataset` 来构建特定应用下的数据集。这通常涉及到重写两个主要函数:`__init__()`, `__getitem__()` 和 `__len__()` 方法[^2]。 - **初始化 (`__init__`)** 构造器用于设置任何预处理逻辑以及存储路径或其他配置参数。这里可以完成诸如读取文件列表、解析标签等操作。 - **获取项 (`__getitem__`)** 定义了当索引访问某个样本时的行为。此方法接收一个整数作为键,并返回该位置处的数据实例及其对应的标签(如果有)。注意这里的实现应该能够支持随机存取模式以便于后续优化如多线程加速等功能特性。 - **长度 (`__len__`)** 返回整个集合中的条目总数,这对于迭代遍历非常有用。 下面是一个简单的例子展示如何基于上述原则编写自己的图像分任务专用的数据集[^3]: ```python class CustomImageDataset(Dataset): def __init__(self, annotations_file, img_dir, transform=None, target_transform=None): self.img_labels = pd.read_csv(annotations_file) self.img_dir = img_dir self.transform = transform self.target_transform = target_transform def __len__(self): return len(self.img_labels) def __getitem__(self, idx): img_path = os.path.join(self.img_dir, self.img_labels.iloc[idx, 0]) image = read_image(img_path) label = self.img_labels.iloc[idx, 1] if self.transform: image = self.transform(image) if self.target_transform: label = self.target_transform(label) sample = {"image": image, "label": label} return sample ``` 在此基础上还可以利用 `DataLoader` 进一步简化批量采样过程,它不仅提供了自动化的批处理功能还允许开发者轻松指定是否打乱顺序、启用多个工作进程并发读取等多种选项以提高效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值