Pytorch中的DataLoader处理机制

博客详细解释了data.Dataloader()的工作流程,包括构建Dataset子类、以特定方式迭代获取batch_data、对batch_data进行collate_fn()操作,最终得到供torch使用的数据对象,还提到需将变量类型处理成torch.tensor,最后给出代码示例解读的参考文献。
# 该代码主要是为了讲解介绍Dataloader的工作机制
from torch.utils import data
# 任何Dataset数据类的子类,并重写相关的函数
class NerDataset(data.Dataset):
    # 将需要的参数进行初始化
    def __init__(self, examples, tokenizer, label_map, max_seq_length):
        self.examples=examples
        self.tokenizer=tokenizer
        self.label_map=label_map
        self.max_seq_length=max_seq_length
    # 该函数是为了计算样本的数量,其意义在于保证__getitem__()的参数inx的取值范围在(0, len)之间
    def __len__(self):
        return len(self.examples)
    # 迭代传入__getitem__()索引,并返回相应的内容
    def __getitem__(self, idx):
        feat=example2feature(self.examples[idx], self.tokenizer, self.label_map, max_seq_length)
        return feat.input_ids, feat.input_mask, feat.segment_ids, feat.predict_mask, feat.label_ids

    # classmethod修饰符的函数不需要实例化,不需要 self 参数。第一个参数cls表示自身类,用于调用类的属性、类的方法、实例化对象等(如cls.tokenizer)。
    # 此函数的第二个参数batch,即是__getitem__()迭代batch_size次的返回结果来作为参数。
    @classmethod
    def pad(cls, batch):

        seqlen_list = [len(sample[
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值